گوگل با معرفی مدلهای جدید خانوادۀ هوش مصنوعی PaliGemma 2، بحثهای گستردهای را در جامعۀ هوش مصنوعی به راه انداخته است. این مدلها که توانایی تجزیهوتحلیل تصاویر را دارند، میتوانند توصیفهایی دقیق و مرتبط از جمله شناسایی احساسات و روایت کلی صحنه ارائه دهند. گوگل در پست وبلاگی خود اعلام کرده است که این فناوری، فراتر از شناسایی سادۀ اشیا رفته و به توصیف عملکردها، احساسات و زمینۀ کلی تصاویر میپردازد.
بااینحال، قابلیت شناسایی احساسات این مدلها نیازمند تنظیمات اختصاصی است و همین موضوع نگرانیهای زیادی را در میان متخصصان برانگیخته است. پروفسور ساندرا واچر از مؤسسۀ اینترنت آکسفورد این فناوری را «مشکلزا» توصیف کرده و اظهار داشته است: «فرض اینکه میتوانیم احساسات افراد را بخوانیم، مثل این است که از گوی جادویی برای تصمیمگیری استفاده کنیم.»
چالشی به نام علم و فرهنگ
شناسایی احساسات توسط هوش مصنوعی از پایههای علمی بحثبرانگیزی برخوردار است. بسیاری از این سیستمها بر نظریۀ پل اکمن، روانشناسی که شش احساس بنیادین انسان را معرفی کرد، متکی هستند. بااینحال، تحقیقات جدید این فرضیه را زیر سؤال برده و به تفاوتهای فرهنگی و فردی در بیان احساسات اشاره کردهاند. دکتر مایک کوک، محقق دانشگاه کینگز لندن، بیان کرده است: «تجربۀ احساسات بسیار پیچیدهتر از آن است که بتوان آن را به طور عمومی شناسایی کرد.»
علاوه بر این، تحقیقات نشان دادهاند که سیستمهای شناسایی احساسات اغلب دارای سوگیریهایی هستند که به طور ناخواسته بر طراحی آنها تأثیر میگذارد. مطالعهای در سال ۲۰۲۰ نشان داد که برخی مدلهای هوش مصنوعی سوگیریهای نژادی دارند و احساسات منفی بیشتری به چهرۀ افراد سیاهپوست نسبت به سفیدپوستان اختصاص میدهند.
پاسخ گوگل و نگرانیها
گوگل مدعی است که آزمایشهای گستردهای برای بررسی تعصبات جمعیتی و سوگیریها در مدل PaliGemma 2 انجام داده و نتایج مطلوبی بهدست آورده است. بااینحال، جزئیات دقیق این آزمایشها و معیارهای بهکاررفته مشخص نشده است. این عدم شفافیت نگرانیهایی را دربارۀ سوءاستفادۀ احتمالی از این فناوری ایجاد کرده است.
دکتر هیدی خلعاف، دانشمند ارشد مؤسسۀ AI Now، معتقد است که این فناوری میتواند به تبعیضهای ناعادلانه منجر شود: «اگر این فناوری بر پایۀ فرضیات شبهعلمی بنا شده باشد، پیامدهای بزرگی در حوزههایی مثل استخدام، مرزبانی و اجرای قانون خواهد داشت.»
محدودیتهای قانونی
درحالیکه برخی از قوانین، مانند قوانین مربوط به هوش مصنوعی در اتحادیۀ اروپا، استفاده از سیستمهای شناسایی احساسات را در مدارس و محیطهای کاری ممنوع کردهاند، استفاده از آنها توسط نهادهای انتظامی همچنان مجاز است. این تناقض باعث نگرانیهایی دربارۀ نقض حریم خصوصی و تعمیق تبعیضها شده است.
آیندهای نامطمئن
پروفسور واچر در پایان هشدار میدهد که «نوآوری مسئولانه» نیازمند بررسی مداوم پیامدهای اخلاقی از مرحلۀ طراحی تا مرحلۀ عرضۀ محصول است. او هشدار میدهد که ممکن است این فناوری در آینده به دنیایی منجر شود که در آن تحلیل احساسات افراد توسط هوش مصنوعی، تعیینکنندۀ شغل، دریافت وام یا پذیرش در دانشگاه باشد.
این فناوری نهتنها پتانسیلهای علمی و کاربردی جدیدی را مطرح میکند، بلکه بازتابی از چالشهای اخلاقی و اجتماعی در دنیای هوش مصنوعی است که نباید نادیده گرفته شود.
منبع خبر:
مصور
/ هوش مصنوعی گوگل و خوانش احساسات
تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی برای مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.