یک پیشنهاد معقول این است که ثبت اختراعات در حوزه فناوری‌های نظارتی محدود شود تا از توسعه و استفاده بیش از حد آن جلوگیری به عمل آید. اگر همه چیز برابر باشد، امکان دور کردن فناوری‌های مرتبط با هوش مصنوعی از برنامه‌های نظارتی، وجود خواهد داشت. با وجود این، جهان بین کشور‌های دارای پروتکل‌های موثر نظارت و کشور‌هایی که به آن پروتکل‌ها پایبند نیستند و از آن پیروی نمی‌کنند، تقسیم خواهد شد. بنابراین ما باید مبنای مشروع تجارت بین این بلوک‌های نوظهور را در نظر بگیریم. قابلیت‌های هوش مصنوعی در ۱۸ماه گذشته با پیشرفت همراه بوده‌اند و بعید به نظر می‌رسد که سرعت توسعه آن کُند شود. انتشار عمومی چت جی‌پی‌تی (Chat GPT) در نوامبر۲۰۲۲ میلادی نقطه عطفی در عرصه هوش مصنوعی مولد بود و در سراسر جهان طنین‌انداز شد. با این وجود، رشد سریع در قابلیت‌های نظارتی دولت‌ها و شرکت‌ها از اهمیت مشابهی برخوردار بوده است.

به گزارش اقتصاددان به نقل از دنیای اقتصاد  ،    ازآنجاکه هوش مصنوعی مولد در تطابق الگو‌ها برتر است تشخیص چهره را به‌طرز قابل توجهی دقیق کرده است. البته دارای برخی نقص‌های اساسی نیز بوده است. چنین نظارتی از نظر فنی منجر به «بهره‌وری بالاتر» می‌شود؛ به این معنا که توانایی مقام‌ها را برای وادار کردن افراد به انجام کاری که قرار است انجام دهند، افزایش می‌دهد. برای شرکت‌ها این به معنای انجام کار‌هایی است که مدیریت آن را بالاترین سطح بهره‌وری می‌داند. برای یک دولت این به معنای اجرای قانون یا کسب اطمینان از تبعیت افراد از قدرت است. متاسفانه تجربه هزارساله نشان داده است که افزایش بهره‌وری لزوما منجر به بهبود در رفاه همگانی نمی‌شود. نظارت امروزی مبتنی بر هوش مصنوعی، به رهبران سیاسی خودکامه و مدیران مستبد اجازه می‌دهد تا قوانین خود را به‌طور موثرتری اجرا کنند.

با این وجود، به‌رغم آنکه بهره‌وری ممکن است افزایش یابد، اکثر افراد از این وضعیت سودی نخواهند برد. این صرفا حدس و گمانه‌زنی نیست. شرکت‌ها در حال حاضر از روش‌های نظارتی تقویت‌شده با هوش مصنوعی برای نظارت بر حرکت کارکنان خود استفاده می‌کنند. برای مثال، آمازون از کارکنان بخش تحویل کالای خود خواسته تا اپلیکیشنی را دانلود کنند که به مامور رساندن کالا امتیاز داده و این کار را ظاهرا با عنوان و بهانه ایمنی کارکنان انجام می‌دهد. برخی از ماموران تحویل کالا گزارش داده‌اند که حتی زمانی که در ساعات کاری به سر نمی‌برند، توسط آن اپلیکیشن ردیابی می‌شوند.

شرکت مشاوره «گارتنر» تخمین می‌زند که سهم کارفرمایان بزرگ در استفاده از ابزارهای دیجیتالی برای ردیابی کارکنانشان از زمان آغاز پاندمی کووید-۱۹ به این سو به میزان ۶۰درصد افزایش یافته است و پیش‌بینی می‌شود طی سه‌سال آینده افزایشی ۷۰درصدی داشته باشد. این در حالی است که شواهد موجود نشان می‌دهند نظارت بیشتر با رضایت شغلی پایین‌تر ارتباط دارد و حتی بسیاری از کارفرمایان موافق این نظر هستند که نظارت بر کارکنانشان باعث افزایش «نگرانی‌های اخلاقی» شده است. درست است فناوری نظارت ذاتا ضد انسانی نیست. فناوری می‌تواند ایمنی را بهبود بخشد (مانند نظارت بر تیرانداز‌های فعال). باوجوداین، ما باید تعادلی مناسب بین این مزایا و حریم خصوصی برقرار کنیم و باید هر کاری که می‌توانیم انجام دهیم تا اطمینان حاصل شود که فناوری مبتنی بر هوش مصنوعی کارکردی مغرضانه نخواهد داشت (مانند قضاوت براساس رنگ پوست یا جنسیت افراد).

مقابله با این موضوعات به هنجار‌های بین المللی و همکاری جدید نیاز دارد. هر فناوری مبتنی بر هوش مصنوعی که برای ردیابی یا مجازات کارکنان مورد استفاده قرار می‌گیرد باید با شفافیت کامل همراه باشد. اگر صرفا به این خاطر که یک فناوری مبتنی بر هوش مصنوعی رفتار شما را مشکل‌سازقلمداد کرده از محل کارتان اخراج شده‌اید، باید بتوانید این تصمیم را به چالش بکشید. باوجوداین، ازآنجاکه بسیاری از دستگاه‌های مبتنی بر فناوری هوش مصنوعی جدید «جعبه‌های سیاه» محسوب می‌شوند که حتی توسعه‌دهندگانشان نیز درک کاملی از آن ندارند. این وضعیت یک انتخاب اقتصادی بزرگ را پیش روی دموکراسی‌های جهان قرار خواهد داد اینکه آیا باید به خرید کالا از کشور‌هایی که کارگران مشمول فناوری‌های نظارتی هستند ادامه دهیم؟ ادامه چنین تجارتی و خرید کالا از آن کشور‌ها نظارت و سرکوب بیشتر توسط رژیم‌هایی را که به دنبال تضعیف دموکراسی هستند، تقویت خواهد کرد.