سامسونگ دائماً شرایط از Chatgpt را که یک ربات گفتگوگر مصنوعی است برای کارمندانش مهیا تا بتواند به این اقدام اقدام سادهسازی سادهسازی روشها و تقویت بخش تولید تولید تراشههایش تراشههایش کند. با این، پس از گذشت سه هفته از سه هفته محرمانه از نیمه هادی، این شرکت گزارشی را ایجاد کرد که باعث نگرانیهایی تنها درباره امنیت امنیت دادهها و نقض اطلاعات محرمانگی محرمانه شد. با اسمارتک نیوز همراه باشید.
این نشت اتفاقی افتاد که کارمندان سامسونگ اطلاعات را به تجهیزات نیمه هادی کدهای منبع را در Chatgpt وارد کردند. در نتیجه این اطلاعات به بخشی از دادههای مصنوعی مصنوعی ساخته میشود که نه برای سامسونگ، بلکه برای هر شخص دیگری از استفاده از استفاده،، امکان دسترسی به دسترسی به دسترسی است که میکند استفاده میکند میکند. استفاده از آن استفاده میشود، بلکه در عوض استفاده میشود.
اولین نشت اتفاق افتاد که یکی از کارمندان هادی یک سری منابع مربوط به کدهای مربوط به اندازه گیری تجهیزات هادی را در Chatgpt وارد کرد تا سریع راه حلی سریع برای یک مشکل پیدا کند. نشت دوم زمانی رخ داد که کارمند دیگری کد به و بهینهسازی را کرد و نهشت سوم پس از درخواست یکی از کارکنان دیگر از Chatgpt جهت ایجاد صورتجلسه صورتجلسه به همراه پیوست.
سامسونگ امنیت را برای جلوگیری از افشای اطلاعات بیشتر انجام می دهد. از جمله کسانی که کارمندان خود دستور داده اند در موردهایی که با Chatgpt به اشتراک میگذارند محتاط باشند و علاوه بر این برای این ظرفیت هر ورودی هوش مصنوعی را به مقدار زیادی ۱۰۲۴ با محدود محدود کرده است. این شرکت مشخص میکند که به هوش مصنوعی داده میشود، این سرورهای خارجی منتقل میشوند، میتوانند بازیابی بازیابی حذف اطلاعات یا اطلاعات را انجام دهند.
این اتفاق دیگر توجه به امنیت دادهها و الزام شرکتها به بررسی دقیق خطرات و استفاده از رباتهای مصنوعی در محل کار را برجسته میکند. در حالی که این رباتهای گفتگوگر از هوش مصنوعی کارایی برای بهبود بخشیدهها و روشها را سادهتر میکنند اما برای اطمینان از محرمانه ماندن اطلاعات حساس و دسترسی آسان به امنیت آنها، نیاز به آموزش آموزش مناسب وجود دارد.