تاریخ انتشار : پنجشنبه 28 اردیبهشت 1402 - 21:48
کد خبر : 125970

مهار هرج و مرج جهانی

مهار هرج و مرج جهانی

مدیرعامل OpenAI، سازنده چت‌بات ChatGPT، به‌ همراه مدیر بخش حریم خصوصی IBM و یک محقق هوش مصنوعی روز سه‌شنبه به کنگره آمریکا رفتند تا درباره خطرات هوش مصنوعی و نیاز به قانونگذاری در این حوزه با سناتورهای ایالات‌متحده حرف بزنند. درمجموع به‌نظر می‌رسد که طرفین خواستار ایجاد مقرراتی تازه برای کنترل این فناوری هستند. در

مدیرعامل OpenAI، سازنده چت‌بات ChatGPT، به‌ همراه مدیر بخش حریم خصوصی IBM و یک محقق هوش مصنوعی روز سه‌شنبه به کنگره آمریکا رفتند تا درباره خطرات هوش مصنوعی و نیاز به قانونگذاری در این حوزه با سناتورهای ایالات‌متحده حرف بزنند. درمجموع به‌نظر می‌رسد که طرفین خواستار ایجاد مقرراتی تازه برای کنترل این فناوری هستند. در این جلسه، سناتور «ریچارد بلومنتال» که ریاست این استماع را بر عهده داشت، جلسه را با ویدیویی آغاز کرد که با استفاده از مدل‌های هوش مصنوعی از خود او ساخته شده بود. در ادامه «سم آلتمن»، مدیرعامل OpenAI، در بیانیه آغازین خود گفت: «معتقدیم مزایای ابزارهایی که تاکنون پیاده‌سازی کرده‌ایم، بسیار بیشتر از معایب آن است اما فکر می‌کنیم که مداخله قانونی از سوی دولت برای کاهش ریسک‌های فزاینده این مدل‌های قدرتمند حیاتی خواهد بود.»
سپس سناتورها یک‌بهیک درباره قانونگذاری در زمینه هوش مصنوعی صحبت کردند. با این ‌حال، به‌نظر می‌رسید که آنها لحنی دوستانه‌تر از برخورد با مدیران شبکه‌های اجتماعی را در مقابل «آلتمن» در پیش گرفته بودند. احتمالا دلیل این اتفاق تمایل مدیرعامل OpenAI برای ساخت نهادی جدید به‌منظور کنترل فعالیت و صدور مجوز برای شرکت‌های هوش مصنوعی و محصولات آنها بود. «بلومنتال» در مورد همین موضوع گفت: «باید مزایای این فناوری را بیشتر از معایب آن پررنگ کنیم. کنگره حالا با انتخابی روبه‌رو است. ما با همان انتخابی روبه‌رو هستیم که در زمان ظهور شبکه‌های اجتماعی با آن مواجه بودیم. در آن زمان نتوانستیم از فرصت استفاده کنیم. اما حالا مسوولیم تا کارهای لازم را درباره هوش مصنوعی انجام دهیم و از محقق‌شدن تهدیدها و ریسک‌ها جلوگیری کنیم.» ایجاد نهادی تازه برای کنترل صنعت هوش مصنوعی یکی از مهم‌ترین ایده‌های مطرح‌شده در این جلسه بود. «آلتمن» پیشنهاد داد که این نهاد اختیارات مختلفی داشته باشد و به شرکت‌ها برای فعالیت و عرضه محصولات مختلف مجوز دهد یا مجوز آنها را باطل کند. او با ابراز نگرانی درباره وضعیت فعلی گفت: «[صنعت هوش مصنوعی] می‌تواند آسیب‌های بزرگی به جهان وارد کند.»

نهادی مانند FDA می‌تواند کنترل صنعت هوش مصنوعی را در دست بگیرد

به گزارش اقتصاددان به نقل از جهان صنعت ،  همچنین «گری مارکوس» که به ‌عنوان محقق هوش مصنوعی از دانشگاه نیویورک در این جلسه حضور داشت، گفت دولت می‌تواند نهادی شبیه به سازمان غذا و دارو (FDA) ایجاد کند تا با بررسی سطح ایمنی محصولات هوش مصنوعی، پیش از عرضه آنها تصمیم بگیرد که یک محصول می‌تواند در دسترس عموم قرار بگیرد یا خیر. «کریستینا مونتگومری»، مدیر بخش حریم خصوصی IBM که دیگر مهمان این جلسه بود، درباره نیاز به شفافیت در صنعت هوش مصنوعی صحبت کرد. او گفت کاربران باید بدانند که چه زمانی درحال صحبت با هوش مصنوعی هستند. او همچنین گفت شرکت‌ها باید مسوول عرضه ابزارهایی باشند که با کمک هوش مصنوعی در مباحثی مثل انتخابات اطلاعات نادرست نشر می‌دهند.
«آلتمن» نیز با ابراز نگرانی درباره اثر محتواهای ساخته‌شده با هوش مصنوعی بر انتخابات پیش رو گفت: «با توجه به اینکه سال آینده با یک انتخابات مواجه هستیم و این مدل‌ها درحال بهترشدن هستند، فکر می‌کنم به این موضوع باید بسیار توجه شود. معتقدم که قانونگذاری در این زمینه بسیار عاقلانه خواهد بود.» آلتمن همچنین اذعان کرد که فناوری هوش مصنوعی می‌تواند اشتباه کند و این اشتباهات می‌توانند بسیار بزرگ باشند؛ برای همین آنها آماده همکاری با قانونگذاران هستند.
با این ‌حال نماینده IBM باور داشت که قانونگذاری باید درباره موارد خاص استفاده از هوش مصنوعی انجام شود، نه در مورد خود این فناوری. «مونتگومری» گفت کنگره باید به‌روشنی ریسک‌های هوش مصنوعی را تعریف کند و قوانین مختلفی را برای ریسک‌های گوناگون این فناوری تدوین کند. سخت‌ترین قوانین باید برای مواردی در نظر گرفته شود که بیشترین ریسک را برای مردم و جامعه به ‌دنبال دارند.
با تمام این صحبت‌ها «بلومنتال» اذعان کرد که متوقف‌کردن توسعه هوش مصنوعی منطقی نیست. او گفت: «جهان منتظر نمی‌ماند؛ بقیه جوامع علمی در جهان قرار نیست متوقف شوند. ما رقبایی داریم که درحال حرکت به جلو هستند و سر به زیر برف کردن پاسخ این مشکل نیست.» کنگره قرار است در تابستان پیش رو چندین جلسه استماع دیگر هم با حضور فعالان حوزه هوش مصنوعی برگزار کند تا در نهایت برای قانونگذاری در این زمینه آماده شود.

هوش مصنوعی؛ تهدید یا فرصت؟

در همین خصوص دکتر احمد احمدی پژوهشگر فناوری‌های نوین و تکنولوژی‌های پیشرفته  گفت: بعد از ورود هوش مصنوعی و مهندسی پلتفرم‌هایی مانند ChatGPT و ارتباطی که هوش مصنوعی با تعاملات کسب‌و‌کارها و همچنین تحلیل و بررسی که با افراد مختلف با این پلتفرم‌ها انجام شد، نتایجی به دست آمده است. در این نتایج، بسیاری از روشنفکران و افرادی که در زمینه چالش‌های زندگی اجتماعی، شغلی و فاصله‌ای را که به واسطه ورود هوش مصنوعی می‌تواند برای افراد و طبقات مختلف ایجاد کند، صبحت‌هایی شد که آیا هوش مصنوعی می‌تواند به جایی که به عنوان فرصت و پیشرفت باشد به عنوان یک تهدید جدی و غیرقابل انتظار تعریف شود؟
او در ادامه گفت: آسیب‌‌شناسان و جامعه‌شناسان سعی کردند این موضوع را بررسی کنند و به این نتیجه رسیدند که قبل از اینکه قوانین و راهکار‌هایی برای کنترل و هدایت هوش مصنوعی در فرآیند‌ها و نقاطی که تهدیدهای کاری و اجتماعی را ایجاد می‌کند، ورود این فناوری بیش از آن‌چیزی که منفعت دارد، آسیب می‌رساند. این آسیب‌ها در موضوعات مختلفی بررسی و سعی شد که آگاه شوند اگر هوش مصنوعی تبعات بیشتری از اثرات مثبت آن دارد، تا جایی که در توان است شرایطی را در بحث بهره‌وری از آن ایجاد و حتی روند پیشرفت آن را دچار اختلال کنند. این تهدید‌ها تا حدی بود که جوامع کارگری و مهندسی احساس خطر کردند و وارد این داستان شدند.

آثار مخرب هوش مصنوعی

احمدی افزود: این موضوع در چند بخش اثرات منفی خودش را بیشتر نشان داد. اولین موضوع این بود که نقاط ابهام و تهدیداتی را که در آینده شغلی یا افرادی که در رشته‌های کامپیوتری به خصوص برنامه‌نویسی فعالیت می‌کنند، نشان داد. موضوع دیگر در بحث بازارهای مالی بود که می‌توانست اثرات بسیار مخربی را برای افرادی که در این بازارها کار می‌کنند، به همراه داشته باشد.همچنین بحث دیگر روابط کاری و اجتماعی بین انسان‌ها بود. هوش مصنوعی تحلیل‌هایش را از داده‌هایی که در اینترنت جست‌وجو شده بود، ارائه می‌داد و رفتارهای تنش‌زایی را بین افراد به وجود آورد. موضوع دیگری که بسیار اهمیت دارد قوانین کاربرد هوش مصنوعی در صنایع بود. در بعضی از موارد مشاهده شده که هوش مصنوعی باعث می‌شود علاوه‌بر اینکه خطرات شغلی‌ای را ایجاد کند، یک‌نوع بار روانی منفی را برای محیط‌های کاری به وجود آورد. این بار منفی در کارایی و نوع کیفیت افراد تاثیرگذاری منفی را به همراه دارد.

هوش مصنوعی اول باید تحلیل شود

این پژوهشگر فناوری‌های نوین و تکنولوژی‌های پیشرفته در پایان خاطرنشان کرد: بحث دیگر که حائز اهمیت است این است که هوش مصنوعی فرصت رسیدن به یکسری از اهداف را برای بعضی از کسب‌و‌کارها تغییر داد و این تغییر به نوعی بود که به یک تهدید غیرقابل محاسبه تبدیل شد. اما به عنوان نکته پایانی ورود هوش مصنوعی به بخش کسب‌وکار، اثراتی برجای گذاشت که افرادی که تصمیم‌گیرنده این شرایط هستند را به این نتیجه رسانده که باید چالش‌های رفتاری و ارتباطی و به خصوص کاربردی هوش مصنوعی را اول تحلیل کرد و چهره هوش مصنوعی را نشان داد تا در ادامه هوش مصنوعی پیشرفت خودش را در این مشخصه‌ها نشان دهد.

مخاطب گرامی، ارسال نظر پیشنهاد و انتقاد نسبت به خبر فوق در بخش ثبت دیدگاه، موجب امتنان است.

 

ع

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

اقصاددان رسانه با مجوز برخط اخبار اقتصاد - فناوری - کسب و کار - اجتماعی و ....