تاریخ انتشار : جمعه 18 فروردین 1402 - 21:04
کد خبر : 121530

هوش مصنوعی متهم افشای اطلاعات

هوش مصنوعی متهم افشای اطلاعات

پس از آنکه ایتالیا استفاده از ChatGPT را در داخل کشور ممنوع کرد، حالا نوبت به آلمان رسیده تا درباره این مدل زبانی هوش مصنوعی تصمیم بگیرد. از آنجا که بعضی از کارشناسان حوزه‌های مختلف نسبت به این پدیده شگفت‌انگیز ابراز نگرانی کرده‌اند، انتظار می‌رود که در آینده به تعداد کشورهایی که استفاده از این

پس از آنکه ایتالیا استفاده از ChatGPT را در داخل کشور ممنوع کرد، حالا نوبت به آلمان رسیده تا درباره این مدل زبانی هوش مصنوعی تصمیم بگیرد.
از آنجا که بعضی از کارشناسان حوزه‌های مختلف نسبت به این پدیده شگفت‌انگیز ابراز نگرانی کرده‌اند، انتظار می‌رود که در آینده به تعداد کشورهایی که استفاده از این روبات چت را ممنوع کنند، اضافه شود. این نگرانی‌ها اگرچه از سال‌ها پیش نسبت به انواع مدل‌ها و محصولات هوش مصنوعی وجود داشته، اما به‌نظر می‌رسد که پس از انتشار یک نامه از سوی غول‌های حوزه فناوری سیاستمداران را هم به تأمل واداشته است. روبات ChatGPT با استفاده از دیتای موجود در اینترنت می‌تواند به پرسش‌های کاربران پاسخ دهد. در عین حال، در زمان چت می‌تواند به دیتاهای متفاوتی که از سوی کاربران، خواسته یا ناخواسته در اختیارش قرار می‌گیرد، دست یابد. شاید بزرگ‌ترین نگرانی در این میان، مسائل مربوط به حریم خصوصی و افشای اطلاعاتی باشد که امکان خطرآفرین بودن آن هم دور از ذهن نیست.

درز اطلاعات سامسونگ
اقتصاددان :  بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آنها شروع به استفاده از آن برای رفع سریع خطاها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشت‌های جلسات داخلی و داده‌های مربوط به عملکرد و بازده این شرکت به بیرون درز کرد. تاکنون این شرکت ۳مورد استفاده از ChatGPT را ثبت کرده که منجر به نشت اطلاعات شده است. درحالی‌که ممکن است ۳مورد زیاد به‌نظر نرسد، اما همه آنها در طول ۲۰روز اتفاق افتاده که نشان‌دهنده وضعیت بسیار نگران‌کننده‌ای است. در یک مورد، یکی از کارمندان سامسونگ کد منبع یک برنامه اختصاصی را برای رفع خطاها به ChatGPT ارسال کرد که اساسا کد یک برنامه فوق محرمانه را برای یک هوش مصنوعی که توسط یک شرکت خارجی اجرا می‌شد، فاش کرد. مورد دوم شاید حتی نگران‌کننده‌تر بود، چراکه کارمند دیگری الگوهای آزمایشی را برای شناسایی تراشه‌های معیوب وارد و درخواست بهینه‌سازی کرد. توالی‌های آزمایشی که برای شناسایی عیوب طراحی شده‌اند کاملاً محرمانه هستند. همچنین کارمند دیگری از برنامه
Naver Clova برای تبدیل صدای ضبط شده یک جلسه به متن استفاده کرد و سپس آن را برای تهیه یک «ارائه» به ChatGPT ارسال کرد.

افشای مکالمات و اطلاعات پرداخت
ایتالیا نخستین کشور غربی بود که ChatGPT را به‌عنوان یک روبات محبوب برای عموم مردم، مسدود کرد. پس از اینکه ChatGPT با اتهام نقض اطلاعات مربوط به مکالمات کاربران و اطلاعات پرداخت مواجه شد، دیدبان حفاظت از داده در ایتالیا اعلام کرد که تحقیقاتی را درباره شرکت OpenAI که سازنده این مدل زبانی هوش مصنوعی است، به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها آغاز کرده است. حالا خبر رسیده که آلمان هم احتمالا به ایتالیا خواهد پیوست و ChatGPT را در این کشور مسدود خواهد کرد. رئیس کمیته حفاظت از داده‌های آلمان ادعا کرد که این کشور ممکن است با ممنوع کردن ChatGPT به‌دلیل نگرانی‌های امنیتی و اطلاعات شخصی از روش ایتالیا استفاده کند. اولریش کلبر، اعلام کرد که کشورش می‌تواند از ممنوعیت اخیر ChatGPT در ایتالیا پیروی و از همان روش استفاده کند. پس از آنکه آژانس حفاظت از داده‌های ایتالیا تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی از سوی ChatGPT آغاز کرد، کلبر عنوان کرد که «در اصل، چنین اقدامی در آلمان هم امکان‌پذیر است». با این حال، از آنجا که آلمان دارای یک نظام سیاسی فدرال است، او صلاحیت تصمیم‌گیری در این مورد را در اختیار ایالت‌های فدرال دانسته است.

نگرانی‌ها بجاست؟
بعضی از مسئولان معتقدند که در استفاده از فناوری ChatGPT باید جانب احتیاط را درنظر گرفت.
به‌عنوان مثال، اورسولا پاچل، معاون سازمان مصرف‌کنندگان اروپا می‌گوید: «مصرف‌کنندگان برای این فناوری آماده نیستند. آنها متوجه نمی‌شوند که این چت‌بات چقدر می‌تواند فریبنده باشد.» اخیراً جو بایدن، رئیس‌جمهور آمریکا هم اعلام کرده که هوش مصنوعی می‌تواند برای کمک به حل چالش‌های بزرگ مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما در عین‌ حال باید پاسخی برای خطرات احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد. این در حالی است که ظهور هرگونه فناوری جدیدی با نگرانی‌هایی توأم بوده است. انسان پس از ظهور هر تکنولوژی تلاش کرده با وضع قوانین و آگاهی بخشی به مردم از مخاطرات فناوری بکاهد. به همین‌خاطر است که بیل گیتس، ‌بنیانگذار مایکروسافت، درباره نامه سرگشاده‌ای که هفته گذشته منتشر و بحث‌برانگیز شد، اعلام کرده که بهتر است همه تمرکز خود را بر چگونگی استفاده از پیشرفت‌های هوش مصنوعی بگذاریم. او می‌گوید: «درک نمی‌کند که توقف توسعه این فناوری چطور می‌تواند به جهان کمک کند. فکر نمی‌کنم درخواست از یک گروه برای توقف توسعه چالشی را حل کند. واضح است که مزیت‌های بزرگی در استفاده از این ابزارها وجود دارد. کاری که باید بکنیم شناسایی بخش‌هایی است که نیاز به رسیدگی بیشتر دارند.»

اپیدمی ممنوعیت؟
خبرها حاکی از تماس سازمان‌های حفاظت از حریم خصوصی داده‌های سایر کشورهای اتحادیه اروپا مانند فرانسه و ایرلند با رگولاتورهای ایتالیایی به‌منظور گفت‌وگو درباره یافته‌های آنهاست.سخنگوی کمیته حفاظت از داده‌های ایرلند (DPC) در گفت‌وگو با رویترز می‌گوید: «ما در حال مذاکره با رگولاتورهای ایتالیایی هستیم تا علت و اساس اقدام آنها را بفهمیم.
آنطور که این مقام ایرلندی اعلام کرده، درباره این موضوع با همه مسئولان حفاظت از داده اتحادیه اروپا هماهنگ خواهیم بود.
درواقع، پس از تصمیم ایتالیا برای محدود کردن دسترسی به این روبات چت، سازمان مصرف‌کنندگان اروپا(BEUC) از همه مسئولان این اتحادیه خواسته که همه چت‌ روبات‌های اصلی هوش مصنوعی را بررسی کنند.
این در حالی است که ChatGPT اکنون در تعدادی از کشورها ازجمله چین، ایران، کره‌شمالی و روسیه غیرقابل دسترسی است.

مخاطب گرامی، ارسال نظر پیشنهاد و انتقاد نسبت به خبر فوق در بخش ثبت دیدگاه، موجب امتنان است.

 

ع

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

اقصاددان رسانه با مجوز برخط اخبار اقتصاد - فناوری - کسب و کار - اجتماعی و ....