ChatGPT این روزها خبرساز شده و در کنار ویژگی های فوق العاده اش باعث نگرانی هایی نیز شده است. به عنوان مثال، این چت هوش مصنوعی به یک موضوع امنیتی و نقض حریم خصوصی تبدیل شده است زیرا بسیاری از کاربران اطلاعات خصوصی خود را در آن به اشتراک می گذارند. باید توجه داشته باشید که ChatGPT تمام مکالماتی را که با آن دارید، از جمله اطلاعات شخصی که به اشتراک می گذارید، ضبط و ذخیره می کند. با این حال، بسیاری از کاربران این را نمی دانند زیرا به خط مشی رازداری OpenAI و صفحه سؤالات متداول توجه نمی کنند و فقط با کلیک بر روی دکمه OK طبق معمول آنها را نادیده می گیرند.
افشای اطلاعات خصوصی برای همه ناخوشایند است، اما برای شرکت های بزرگی که از ChatGPT برای پردازش اطلاعات روزانه خود استفاده می کنند، بارزتر است و می تواند آغاز یک فاجعه بزرگ باشد.
افشای اطلاعات محرمانه سامسونگ از طریق ChatGPT
طبق گفته Gizmodo، کارمندان سامسونگ به طور تصادفی اطلاعات حساس را از طریق ChatGPT در سه نوبت در ۲۰ روز فاش کردند. این تنها بخشی از واقعیت این است که شرکت ها به راحتی در معرض خطر لو رفتن اطلاعات خصوصی خود به دلیل استفاده نادرست از هوش مصنوعی هستند.
ChatGPT علناً به دلیل مسائل مربوط به حریم خصوصی مورد انتقاد قرار گرفته است، بنابراین سامسونگ در اجازه دادن به این امر بسیار کوتاهی کرده است. برخی از کشورها حتی ChatGPT را برای محافظت از شهروندان خود تا زمانی که قوانین حفظ حریم خصوصی آنها بهبود نیابد ممنوع کرده اند. بنابراین منطقی است که شرکتها در مورد نحوه استفاده کارکنانشان از این فناوری نوظهور دقت بیشتری داشته باشند.
خوشبختانه، مشتریان سامسونگ حداقل در حال حاضر امن به نظر میرسند و تنها اطلاعات فاش شده مربوط به سیاستهای تجاری داخلی، برخی کدهای اختصاصی و صورتجلسههای یک جلسه تیمی است که همگی توسط کارمندان سامسونگ با ChatGPT به اشتراک گذاشته شده است. شرکت. اما نکته اینجاست که افشای اطلاعات شخصی کاربران به همین راحتی توسط کارمندان شرکت های بزرگ قابل انجام است و به نظر می رسد دیر یا زود شاهد چنین اتفاقی باشیم. اگر این اتفاق بیفتد، میتوان انتظار داشت که شاهد افزایش گسترده فیشینگ و کلاهبرداریهای فیشینگ باشیم.
در این میان خطر دیگری نیز وجود دارد. اگر کارمندان شرکت از ChatGPT برای رفع اشکالات نرم افزاری در محصولات خود استفاده کنند (همانطور که سامسونگ انجام داد)، کدهایی که در جعبه چت تایپ می کنند نیز در سرورهای OpenAI ذخیره می شود و به طور بالقوه منجر به نقص های امنیتی بیشتر و حملات بعدی می شود که تأثیر زیادی بر روی آنها خواهد داشت. شرکت ها در حل مشکلات محصولات و برنامه های منتشر نشده. حتی ممکن است در نهایت شاهد افشای اطلاعاتی مانند طرحهای تجاری منتشر نشده، نسخههای آتی و نمونههای اولیه باشیم که میتواند منجر به خسارات مالی هنگفتی برای شرکتها شود.
بیشتر بخوانید:
- آیا هوش مصنوعی خطرناک است؟ با خطرات فوری این فناوری جدید آشنا شوید
ChatGPT چگونه اطلاعات را فاش می کند؟
سیاست حفظ حریم خصوصی ChatGPT به وضوح بیان می کند که این ابزار چت هوش مصنوعی مکالمات شما را ضبط می کند و سوابق شما را با سایر شرکت ها و مربیان هوش مصنوعی آنها به اشتراک می گذارد. هنگامی که شخصی (به عنوان مثال، یک کارمند سامسونگ) اطلاعات حساس را در یک کادر محاوره ای تایپ می کند، این اطلاعات در سرورهای ChatGPT ثبت و ذخیره می شود.
بعید است که کارمندان از روی عمد این کار را انجام دهند، و این چیزی است که آن را بسیار ترسناک می کند. بیشتر نقضهای دادهها معمولاً ناشی از خطای انسانی است و اغلب به این دلیل است که شرکتها به درستی به کارکنان خود در مورد خطرات حریم خصوصی استفاده از ابزارهایی مانند هوش مصنوعی آموزش ندادهاند.
به عنوان مثال، اگر یک کارمند لیست طولانی و گسترده ای از کاربران شرکت را وارد ChatGPT کند تا کار خود را ساده کند و از هوش مصنوعی بخواهد شماره تلفن مشتری را از سایر داده ها جدا کند، ChatGPT همه نام ها و شماره تلفن ها را در سوابق شما ذخیره می کند. به بیان ساده، اطلاعات خصوصی شما با شرکت هایی به اشتراک گذاشته می شود که قرار نبود به آنها دسترسی داشته باشند، و این شرکت ها احتمالا نگهداری داده ها را چندان جدی نمی گیرند.
نتیجه: اطلاعات محرمانه خود را با ChatGPT به اشتراک نگذارید
شما می توانید با خیال راحت از ChatGPT در کارهای مختلف خود استفاده کنید، اما هرگز نباید اطلاعات حساس را با این ابزار به اشتراک بگذارید. شما باید مراقب باشید و از نوشتن هر چیزی که شخصی است خودداری کنید. شامل نام، آدرس، ایمیل و شماره تلفن. این خطا می تواند به راحتی در حین مکالمه رخ دهد، بنابراین باید مراقب باشید که سوالات خود را به دقت به هوش مصنوعی بررسی کنید تا مطمئن شوید که هیچ چیز حساسی به طور تصادفی وارد نشده است.
افشای اطلاعات محرمانه سامسونگ به ما نشان می دهد که خطر نشت اطلاعات مربوط به ChatGPT چقدر واقعی است. متأسفانه در آینده بیشتر شاهد این نوع خطاها خواهیم بود و شاید اثرات آن بسیار بیشتر و شدیدتر باشد. زیرا هوش مصنوعی روز به روز در حال گسترش است و جزء اصلی فرآیندهای کاری اکثر شرکت ها می شود.