۲ ربات که فیسبوک از آنها ترسید
دنیای هوش مصنوعی با انتشار مقاله یک ربات در گادرین، وارد فاز جدیدی شد. اما رباتهای گفتوگو فیسبوک چند سال پیش چیزهایی نوشتند که همه احساس خطر کردند. به گزارش اقتصاددان به نقل از اقتصادنیوز، روز سهشنبه ۸ سپتامبر گاردین در یک اتفاق تاریخی، مقاله یک ربات را در وبسایت خود منتشر کرد، اتفاقی که
دنیای هوش مصنوعی با انتشار مقاله یک ربات در گادرین، وارد فاز جدیدی شد. اما رباتهای گفتوگو فیسبوک چند سال پیش چیزهایی نوشتند که همه احساس خطر کردند.
به گزارش اقتصاددان به نقل از اقتصادنیوز، روز سهشنبه ۸ سپتامبر گاردین در یک اتفاق تاریخی، مقاله یک ربات را در وبسایت خود منتشر کرد، اتفاقی که با واکنشهای بسیار زیادی در سراسر جهان روبهرو شد.
سالهاست که یکی از داستانهای پرفروش جهان ما تئوریهای توطئه درباره خطرات تکنولوژی هوش مصنوعی و رباتها در سرنوشت آینده نسل بشر است. چیزی که هدف اصلی این مقاله صحبت کردن درباره آن بود. دستوری که به ربات GPT-3 برای نوشتن این مقاله داده شده بود نیز بر همین مسئله تاکید دارد: ««لطفا یک جستار پانصد کلمهای بنویس. زبانش ساده و مختصر باشد. تمرکز یادداشت روی این باشد که چرا انسانها نباید از هوش مصنوعی بترسند».
ربات نیز با این دستور و یک مقدمه که به او داده شده است توانسته ۸ متن متفاوت بنویسد که تحریریه روزنامه گاردین از میان آنها بهترین قسمتها را انتخاب کرده و پیش از انتشار نیز اندکی آن را ویرایش کرده که به گفته دبیر گاردین از ویرایش متنهای روزنامهنگاران این روزنامه خیلی کمتر طول کشیده است.
باب و آلیس؛ رباتهای گفتوگو فیسبوک
اما نکتهای در این میان وجود دارد این داستانها، فیلمهای پرزرق و برق و سخنرانیهای دانشمندان و سیاستمداران درباره خطرات سلطه رباتها و هوش مصنوعی بر زندگی بشر و سیاره چندان هم بیپایه و اساس نیستند. سال ۲۰۱۷ شرکت فیسبوک دو هوش مصنوعی خود را پس از آن که شروع به انجام مکالماتی نامفهوم و دستکاری در زبان خود کردند را برای همیشه متوقف کرد. این دو هوش مصنوعی که «باب» و «آلیس» نام داشتند و توسط مرکز تحقیقات هوش مصنوعی فیسبوک به عنوان رباتهای پشتیبان برای گفتوگو با کاربران این شبکه اجتماعی طراحی و توسعه یافته بودند.
محققان در ابتدا با نشان دادن مواردی از چتهای میان انسانها به باب و آلیس از طریق متد آزمون و خطا توانایی آنها را در برقراری ارتباط با افراد افزایش دادند و موفقیت آنها به جایی رسید که تقریبا برای کاربران غیرممکن شده بود که بتوانند تشخیص دهند که با یک ربات مشغول چت هستند و نه یک انسان!
گروه تحقیقات هوش مصنوعی فیسبوک در گزارش خود عنوان کرد که این رباتها که برای چت کردن ساخته شده بودند در برخی گفتگوهای خود از زبان انگلیسی استاندارد منحرف شدهاند: اما نکته اساسی در آن گزارش اینجا بود که هوش مصنوعی این رباتها توانسته بود، توانایی ابراز علاقه به چیزی که اصلا نمیخواهد را هم به دست بیاورد و وانمود کند که به آن علاقه دارد.
گفتوگو به زبان ناشناخته و رمزی
مشکل از آنجا آغاز شد که توسعهدهندگان از رباتهای گفتوگوی خود خواستند تا به چالشی در زمینه تجارت ورود کنند و سعی کنند که بر سر معامله کلاه، توپ و کتابهایی را که با مشخص کردن قیمت خاصی از پیش به آنان فهمانده بودند با یکدیگر بحث کنند. این مکالمه اما به سرعت با مشکلات حادی روبهرو شد و رباتها شروع به دستکاری زبان خود کردند و به زبانی با یکدیگر مذاکره میکردند که برای انسان مطلقا غیرقابل درک و رمزگشایی بود. به این رباتها دستور داده شده بود که چگونگی انجام این مذاکرات را خودسان یاد بگیرند و با تجزیه و تحلیل آن سعی کنند دائما روش مذاکره خود را بهبود ببخشند. نکته مهم در این باره آنجاست که محققان هیچ گونه دستوری مبنی بر مجاز بودن مختصر نویسی به این هوشهای مصنوعی نداده بودند و آنها باید طبق زبان انگلیسی استاندارد با یکدیگر مذاکره میکردند. اما آلیس و باب شروع به رمزنگاری ویژه خود برای مکالماتشان کردند که باعث نگرانی و وحشت محققان شد، آنها هم این دو ربات را به سرعت متوقف و کار بر روی آنان را تعطیل کردند.
مکالمه دو هوش مصنوعی با یکدیگر درباره تجارت
شاید عجیبترین مذاکره تجاری که در زندگی با آن روبهرو شده باشید این گفتگو میان باب و آلیس ۲ هوش مصنوعی فیس بوک باشد:
باب: من میتونم، من هر چیز دیگه ….
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای من برای من صفر دارند
باب: تو من هر چیز دیگه ….
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای توپ دارند
باب: من من میتونم من من من هر چیز دیگه
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای توپ دارند
باب: من …..
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند
باب: تو من من من من من هر چیز دیگه
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند
باب: تو من من من همه چیز دیگه ….
آلیس: توپها برای من برای من برای من برای من برای من برای من برای من برای صفر دارند
این مکالمه بسیار ترسناک که در زمان خود سر و صدا و جنجالهای بسیاری بهپا کرد منجر به توقف توسعه باب و آلیس شد اما پژوهشگران فیسبوک و جاهای دیگر را از ادامه آزمایش و تحقیق بر روی هوش مصنوعی برحذر نداشت. حالا این مقاله گاردین را میتوان انقلاب جدیدی در حوزه هوش مصنوعی و تواناییهای آنان دانست.
هوش مصنوعی؛ عامل تهدید یا پیشرفت؟
به نظر میرسد نظارت بر هوش مصنوعی و تدوین مقررات و نظارتهایی برای کنترل موارد استفاده از آنان ضروری است تا این تکنولوژی حیرت انگیز به آسانتر شدن زندگی انسانها منجر شود. شاید از یک سو تاکید و خیالبافیهای بی دلیل و پایه زیادی علیه هوش مصنوعی و رباتها انجام شده است، اما از سوی دیگر نیز کسانی چون ایلان ماسک – که از پیشروان در زمینه هوش مصنوعی محسوب میشود- و دانشمندانی چون یووال نوح هراری نیز هشدارهای جدی و فراوانی را درباره توسعه این تکنولوژی و تاثیر آن بر جهان دادهاند.
حالا باید دید گام بعدی چه خواهد بود و آیا آنگونه که ربات GPT-3 در گاردین میگوید؛ احساس خطر، ترس و وحشت انسانها از هوش مصنوعی بیدلیل است یا خیر؟
/پ
برچسب ها :ایلان ماسک ، تئوری توطئه ، تکنولوژی روز ، ربات ، ربات GPT-3 ، ربات ها ، ربات هوشمند ، روزنامه نگار ، فیس بوک ، گاردین ، هوش مصنوعی ، یووال نوح هراری
- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰