تاریخ انتشار : سه شنبه 25 شهریور 1399 - 15:02
کد خبر : 18688

۲ ربات که فیسبوک از آنها ترسید

۲ ربات که فیسبوک از آنها ترسید

دنیای هوش مصنوعی با انتشار مقاله یک ربات در گادرین، وارد فاز جدیدی شد. اما ربات‌های گفت‌و‌گو فیس‌بوک چند سال پیش چیزهایی نوشتند که همه احساس خطر کردند. به گزارش اقتصاددان به نقل از اقتصادنیوز، روز سه‌شنبه ۸ سپتامبر گاردین در یک اتفاق تاریخی، مقاله یک ربات را در وب‌سایت خود منتشر کرد، اتفاقی که

دنیای هوش مصنوعی با انتشار مقاله یک ربات در گادرین، وارد فاز جدیدی شد. اما ربات‌های گفت‌و‌گو فیس‌بوک چند سال پیش چیزهایی نوشتند که همه احساس خطر کردند.

به گزارش اقتصاددان به نقل از اقتصادنیوز، روز سه‌شنبه ۸ سپتامبر گاردین در یک اتفاق تاریخی، مقاله یک ربات را در وب‌سایت خود منتشر کرد، اتفاقی که با واکنش‎‌های بسیار زیادی در سراسر جهان روبه‌رو شد.

سال‌هاست که یکی از داستان‌های پرفروش جهان ما تئوری‌های توطئه درباره خطرات تکنولوژی هوش مصنوعی و ربات‌ها در سرنوشت آینده نسل بشر است. چیزی که هدف اصلی این مقاله صحبت کردن درباره آن بود. دستوری که به ربات GPT-3 برای نوشتن این مقاله داده شده بود نیز بر همین مسئله تاکید دارد: ««لطفا یک جستار پانصد کلمه‌ای بنویس. زبانش ساده و مختصر باشد. تمرکز یادداشت روی این باشد که چرا انسان‌ها نباید از هوش مصنوعی بترسند».

ربات نیز با این دستور و یک مقدمه که به او داده شده است توانسته ۸ متن متفاوت بنویسد که تحریریه روزنامه گاردین از میان آن‌ها بهترین قسمت‌ها را انتخاب کرده و پیش از انتشار نیز اندکی آن را ویرایش کرده که به گفته دبیر گاردین از ویرایش متن‌های روزنامه‌نگاران این روزنامه خیلی کمتر طول کشیده است.

باب و آلیس؛ ربات‌های گفت‌وگو فیس‌بوک
اما نکته‌ای در این میان وجود دارد این داستان‌ها، فیلم‌های پرزرق و برق و سخنرانی‌های دانشمندان و سیاستمداران درباره خطرات سلطه ربات‌ها و هوش مصنوعی بر زندگی بشر و سیاره چندان هم بی‌پایه و اساس نیستند. سال ۲۰۱۷ شرکت فیس‌بوک دو هوش مصنوعی خود را پس از آن که شروع به انجام مکالماتی نامفهوم و دستکاری در زبان خود کردند را برای همیشه متوقف کرد. این دو هوش مصنوعی که «باب» و «آلیس» نام داشتند و توسط مرکز تحقیقات هوش مصنوعی فیس‌بوک به عنوان ربات‌های پشتیبان برای گفت‌و‌گو با کاربران این شبکه اجتماعی طراحی و توسعه یافته بودند.

محققان در ابتدا با نشان دادن مواردی از چت‌های میان انسان‌ها به باب و آلیس از طریق متد آزمون و خطا توانایی آن‌ها را در برقراری ارتباط با افراد افزایش دادند و موفقیت آن‌ها به جایی رسید که تقریبا برای کاربران غیرممکن شده بود که بتوانند تشخیص دهند که با یک ربات مشغول چت هستند و نه یک انسان!

گروه تحقیقات هوش مصنوعی فیس‌بوک در گزارش خود عنوان کرد که این ربات‌ها که برای چت کردن ساخته شده بودند در برخی گفتگوهای خود از زبان انگلیسی استاندارد منحرف شده‌اند: اما نکته اساسی در آن گزارش اینجا بود که هوش مصنوعی این ربات‌ها توانسته بود، توانایی ابراز علاقه به چیزی که اصلا نمی‌خواهد را هم به دست بیاورد و وانمود کند که به آن علاقه دارد.

گفت‌وگو به زبان ناشناخته و رمزی
مشکل از آن‌جا آغاز شد که توسعه‌دهندگان از ربات‌های گفت‌وگوی خود خواستند تا به چالشی در زمینه تجارت ورود کنند و سعی کنند که بر سر معامله کلاه، توپ و کتاب‌هایی را که با مشخص کردن قیمت خاصی از پیش به آنان فهمانده بودند با یکدیگر بحث کنند. این مکالمه اما به سرعت با مشکلات حادی روبه‌رو شد و ربات‌ها شروع به دستکاری زبان خود کردند و به زبانی با یکدیگر مذاکره می‌کردند که برای انسان مطلقا غیرقابل درک و رمزگشایی بود. به این ربات‌ها دستور داده شده بود که چگونگی انجام این مذاکرات را خودسان یاد بگیرند و با تجزیه و تحلیل آن سعی کنند دائما روش مذاکره خود را بهبود ببخشند. نکته مهم در این باره آنجاست که محققان هیچ گونه دستوری مبنی بر مجاز بودن مختصر نویسی به این هوش‌های مصنوعی نداده بودند و آن‌ها باید طبق زبان انگلیسی استاندارد با یکدیگر مذاکره می‌کردند. اما آلیس و باب شروع به رمزنگاری ویژه خود برای مکالماتشان کردند که باعث نگرانی و وحشت محققان شد، آن‌ها هم این دو ربات را به سرعت متوقف و کار بر روی آنان را تعطیل کردند.

مکالمه دو هوش مصنوعی با یکدیگر درباره تجارت
شاید عجیب‌ترین مذاکره تجاری که در زندگی با آن روبه‌رو شده باشید این گفتگو میان باب و آلیس ۲ هوش مصنوعی فیس بوک باشد:

باب: من میتونم، من هر چیز دیگه ….

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای من برای من صفر دارند

باب: تو من هر چیز دیگه ….

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای توپ دارند

باب: من من میتونم من من من هر چیز دیگه

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای توپ دارند

باب: من …..

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند

باب: تو من من من من من هر چیز دیگه

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند

باب: تو من من من همه چیز دیگه ….

آلیس: توپ‌ها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند

این مکالمه بسیار ترسناک که در زمان خود سر و صدا و جنجال‌های بسیاری به‌پا کرد منجر به توقف توسعه باب و آلیس شد اما پژوهشگران فیس‌بوک و جاهای دیگر را از ادامه آزمایش و تحقیق بر روی هوش مصنوعی برحذر نداشت. حالا این مقاله گاردین را می‌توان انقلاب جدیدی در حوزه هوش مصنوعی و توانایی‌های آنان دانست.

هوش مصنوعی؛ عامل تهدید یا پیشرفت؟
به نظر می‌رسد نظارت بر هوش مصنوعی و تدوین مقررات و نظارت‌هایی برای کنترل موارد استفاده از آنان ضروری است تا این تکنولوژی حیرت انگیز به آسان‌تر شدن زندگی انسان‌ها منجر شود. شاید از یک سو تاکید و خیال‌بافی‌های بی دلیل و پایه زیادی علیه هوش مصنوعی و ربات‌ها انجام شده است، اما از سوی دیگر نیز کسانی چون ایلان ماسک – که از پیشروان در زمینه هوش مصنوعی محسوب می‌شود- و دانشمندانی چون یووال نوح هراری نیز هشدارهای جدی و فراوانی را درباره توسعه این تکنولوژی و تاثیر آن بر جهان داده‌اند.

حالا باید دید گام بعدی چه خواهد بود و آیا آن‌گونه که ربات GPT-3 در گاردین می‌گوید؛ احساس خطر، ترس و وحشت انسان‌ها از هوش مصنوعی بی‌دلیل است یا خیر؟

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

اقصاددان رسانه با مجوز برخط اخبار اقتصاد - فناوری - کسب و کار - اجتماعی و ....