• امروز : دوشنبه - ۱۵ خرداد - ۱۴۰۲
  • برابر با : Monday - 5 June - 2023
1

چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟

  • کد خبر : 19121
  • ۰۵ اردیبهشت ۱۴۰۲ - ۲۱:۰۸
چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟

ChatGPT این روزها خبرساز شده و در کنار ویژگی های فوق العاده اش باعث نگرانی هایی نیز شده است. به عنوان مثال، این چت هوش مصنوعی به یک موضوع امنیتی و نقض حریم خصوصی تبدیل شده است زیرا بسیاری از کاربران اطلاعات خصوصی خود را در آن به اشتراک می گذارند. باید توجه داشته باشید […]

ChatGPT این روزها خبرساز شده و در کنار ویژگی های فوق العاده اش باعث نگرانی هایی نیز شده است. به عنوان مثال، این چت هوش مصنوعی به یک موضوع امنیتی و نقض حریم خصوصی تبدیل شده است زیرا بسیاری از کاربران اطلاعات خصوصی خود را در آن به اشتراک می گذارند. باید توجه داشته باشید که ChatGPT تمام مکالماتی را که با آن دارید، از جمله اطلاعات شخصی که به اشتراک می گذارید، ضبط و ذخیره می کند. با این حال، بسیاری از کاربران این را نمی دانند زیرا به خط مشی رازداری OpenAI و صفحه سؤالات متداول توجه نمی کنند و فقط با کلیک بر روی دکمه OK طبق معمول آنها را نادیده می گیرند.

افشای اطلاعات خصوصی برای همه ناخوشایند است، اما برای شرکت های بزرگی که از ChatGPT برای پردازش اطلاعات روزانه خود استفاده می کنند، بارزتر است و می تواند آغاز یک فاجعه بزرگ باشد.

افشای اطلاعات محرمانه سامسونگ از طریق ChatGPT

طبق گفته Gizmodo، کارمندان سامسونگ به طور تصادفی اطلاعات حساس را از طریق ChatGPT در سه نوبت در ۲۰ روز فاش کردند. این تنها بخشی از واقعیت این است که شرکت ها به راحتی در معرض خطر لو رفتن اطلاعات خصوصی خود به دلیل استفاده نادرست از هوش مصنوعی هستند.

ChatGPT علناً به دلیل مسائل مربوط به حریم خصوصی مورد انتقاد قرار گرفته است، بنابراین سامسونگ در اجازه دادن به این امر بسیار کوتاهی کرده است. برخی از کشورها حتی ChatGPT را برای محافظت از شهروندان خود تا زمانی که قوانین حفظ حریم خصوصی آنها بهبود نیابد ممنوع کرده اند. بنابراین منطقی است که شرکت‌ها در مورد نحوه استفاده کارکنانشان از این فناوری نوظهور دقت بیشتری داشته باشند.

ChatGPT

خوشبختانه، مشتریان سامسونگ حداقل در حال حاضر امن به نظر می‌رسند و تنها اطلاعات فاش شده مربوط به سیاست‌های تجاری داخلی، برخی کدهای اختصاصی و صورتجلسه‌های یک جلسه تیمی است که همگی توسط کارمندان سامسونگ با ChatGPT به اشتراک گذاشته شده است. شرکت. اما نکته اینجاست که افشای اطلاعات شخصی کاربران به همین راحتی توسط کارمندان شرکت های بزرگ قابل انجام است و به نظر می رسد دیر یا زود شاهد چنین اتفاقی باشیم. اگر این اتفاق بیفتد، می‌توان انتظار داشت که شاهد افزایش گسترده فیشینگ و کلاهبرداری‌های فیشینگ باشیم.

در این میان خطر دیگری نیز وجود دارد. اگر کارمندان شرکت از ChatGPT برای رفع اشکالات نرم افزاری در محصولات خود استفاده کنند (همانطور که سامسونگ انجام داد)، کدهایی که در جعبه چت تایپ می کنند نیز در سرورهای OpenAI ذخیره می شود و به طور بالقوه منجر به نقص های امنیتی بیشتر و حملات بعدی می شود که تأثیر زیادی بر روی آنها خواهد داشت. شرکت ها در حل مشکلات محصولات و برنامه های منتشر نشده. حتی ممکن است در نهایت شاهد افشای اطلاعاتی مانند طرح‌های تجاری منتشر نشده، نسخه‌های آتی و نمونه‌های اولیه باشیم که می‌تواند منجر به خسارات مالی هنگفتی برای شرکت‌ها شود.


بیشتر بخوانید:

  • آیا هوش مصنوعی خطرناک است؟ با خطرات فوری این فناوری جدید آشنا شوید

ChatGPT چگونه اطلاعات را فاش می کند؟

سیاست حفظ حریم خصوصی ChatGPT به وضوح بیان می کند که این ابزار چت هوش مصنوعی مکالمات شما را ضبط می کند و سوابق شما را با سایر شرکت ها و مربیان هوش مصنوعی آنها به اشتراک می گذارد. هنگامی که شخصی (به عنوان مثال، یک کارمند سامسونگ) اطلاعات حساس را در یک کادر محاوره ای تایپ می کند، این اطلاعات در سرورهای ChatGPT ثبت و ذخیره می شود.

بعید است که کارمندان از روی عمد این کار را انجام دهند، و این چیزی است که آن را بسیار ترسناک می کند. بیشتر نقض‌های داده‌ها معمولاً ناشی از خطای انسانی است و اغلب به این دلیل است که شرکت‌ها به درستی به کارکنان خود در مورد خطرات حریم خصوصی استفاده از ابزارهایی مانند هوش مصنوعی آموزش نداده‌اند.

ChatGPT

به عنوان مثال، اگر یک کارمند لیست طولانی و گسترده ای از کاربران شرکت را وارد ChatGPT کند تا کار خود را ساده کند و از هوش مصنوعی بخواهد شماره تلفن مشتری را از سایر داده ها جدا کند، ChatGPT همه نام ها و شماره تلفن ها را در سوابق شما ذخیره می کند. به بیان ساده، اطلاعات خصوصی شما با شرکت هایی به اشتراک گذاشته می شود که قرار نبود به آنها دسترسی داشته باشند، و این شرکت ها احتمالا نگهداری داده ها را چندان جدی نمی گیرند.

نتیجه: اطلاعات محرمانه خود را با ChatGPT به اشتراک نگذارید

شما می توانید با خیال راحت از ChatGPT در کارهای مختلف خود استفاده کنید، اما هرگز نباید اطلاعات حساس را با این ابزار به اشتراک بگذارید. شما باید مراقب باشید و از نوشتن هر چیزی که شخصی است خودداری کنید. شامل نام، آدرس، ایمیل و شماره تلفن. این خطا می تواند به راحتی در حین مکالمه رخ دهد، بنابراین باید مراقب باشید که سوالات خود را به دقت به هوش مصنوعی بررسی کنید تا مطمئن شوید که هیچ چیز حساسی به طور تصادفی وارد نشده است.

افشای اطلاعات محرمانه سامسونگ به ما نشان می دهد که خطر نشت اطلاعات مربوط به ChatGPT چقدر واقعی است. متأسفانه در آینده بیشتر شاهد این نوع خطاها خواهیم بود و شاید اثرات آن بسیار بیشتر و شدیدتر باشد. زیرا هوش مصنوعی روز به روز در حال گسترش است و جزء اصلی فرآیندهای کاری اکثر شرکت ها می شود.

لینک کوتاه : https://smartech.news/?p=19121

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.