• امروز : افزونه جلالی را نصب کنید.
  • برابر با : Tuesday - 1 July - 2025
5

هوش مصنوعی گوگل و خوانش احساسات

  • کد خبر : 15661
  • 18 آذر 1403 - 13:50
هوش مصنوعی گوگل و خوانش احساسات

گوگل با معرفی مدل‌های جدید خانوادۀ هوش مصنوعی PaliGemma 2، بحث‌های گسترده‌ای را در جامعۀ هوش مصنوعی به راه انداخته است. این مدل‌ها که توانایی تجزیه‌وتحلیل تصاویر را دارند، می‌توانند توصیف‌هایی دقیق و مرتبط از جمله شناسایی احساسات و روایت کلی صحنه ارائه دهند. گوگل در پست وبلاگی خود اعلام کرده است که این فناوری، فراتر از شناسایی سادۀ اشیا رفته و به توصیف عملکردها، احساسات و زمینۀ کلی تصاویر می‌پردازد.

گوگل با معرفی مدل‌های جدید خانوادۀ هوش مصنوعی PaliGemma 2، بحث‌های گسترده‌ای را در جامعۀ هوش مصنوعی به راه انداخته است. این مدل‌ها که توانایی تجزیه‌وتحلیل تصاویر را دارند، می‌توانند توصیف‌هایی دقیق و مرتبط از جمله شناسایی احساسات و روایت کلی صحنه ارائه دهند. گوگل در پست وبلاگی خود اعلام کرده است که این فناوری، فراتر از شناسایی سادۀ اشیا رفته و به توصیف عملکردها، احساسات و زمینۀ کلی تصاویر می‌پردازد.

بااین‌حال، قابلیت شناسایی احساسات این مدل‌ها نیازمند تنظیمات اختصاصی است و همین موضوع نگرانی‌های زیادی را در میان متخصصان برانگیخته است. پروفسور ساندرا واچر از مؤسسۀ اینترنت آکسفورد این فناوری را «مشکل‌زا» توصیف کرده و اظهار داشته است: «فرض اینکه می‌توانیم احساسات افراد را بخوانیم، مثل این است که از گوی جادویی برای تصمیم‌گیری استفاده کنیم.»

چالشی به نام علم و فرهنگ

شناسایی احساسات توسط هوش مصنوعی از پایه‌های علمی بحث‌برانگیزی برخوردار است. بسیاری از این سیستم‌ها بر نظریۀ پل اکمن، روان‌شناسی که شش احساس بنیادین انسان را معرفی کرد، متکی هستند. بااین‌حال، تحقیقات جدید این فرضیه را زیر سؤال برده و به تفاوت‌های فرهنگی و فردی در بیان احساسات اشاره کرده‌اند. دکتر مایک کوک، محقق دانشگاه کینگز لندن، بیان کرده است: «تجربۀ احساسات بسیار پیچیده‌تر از آن است که بتوان آن را به طور عمومی شناسایی کرد.»

علاوه بر این، تحقیقات نشان داده‌اند که سیستم‌های شناسایی احساسات اغلب دارای سوگیری‌هایی هستند که به طور ناخواسته بر طراحی آن‌ها تأثیر می‌گذارد. مطالعه‌ای در سال ۲۰۲۰ نشان داد که برخی مدل‌های هوش مصنوعی سوگیری‌های نژادی دارند و احساسات منفی بیشتری به چهرۀ افراد سیاه‌پوست نسبت به سفیدپوستان اختصاص می‌دهند.

 

پاسخ گوگل و نگرانی‌ها

گوگل مدعی است که آزمایش‌های گسترده‌ای برای بررسی تعصبات جمعیتی و سوگیری‌ها در مدل PaliGemma 2 انجام داده و نتایج مطلوبی به‌دست آورده است. بااین‌حال، جزئیات دقیق این آزمایش‌ها و معیارهای به‌کاررفته مشخص نشده است. این عدم شفافیت نگرانی‌هایی را دربارۀ سوءاستفادۀ احتمالی از این فناوری ایجاد کرده است.

دکتر هیدی خلعاف، دانشمند ارشد مؤسسۀ AI Now، معتقد است که این فناوری می‌تواند به تبعیض‌های ناعادلانه منجر شود: «اگر این فناوری بر پایۀ فرضیات شبه‌علمی بنا شده باشد، پیامدهای بزرگی در حوزه‌هایی مثل استخدام، مرزبانی و اجرای قانون خواهد داشت.»

محدودیت‌های قانونی

درحالی‌که برخی از قوانین، مانند قوانین مربوط به هوش مصنوعی در اتحادیۀ اروپا، استفاده از سیستم‌های شناسایی احساسات را در مدارس و محیط‌های کاری ممنوع کرده‌اند، استفاده از آن‌ها توسط نهادهای انتظامی همچنان مجاز است. این تناقض باعث نگرانی‌هایی دربارۀ نقض حریم خصوصی و تعمیق تبعیض‌ها شده است.

آینده‌ای نامطمئن

پروفسور واچر در پایان هشدار می‌دهد که «نوآوری مسئولانه» نیازمند بررسی مداوم پیامدهای اخلاقی از مرحلۀ طراحی تا مرحلۀ عرضۀ محصول است. او هشدار می‌دهد که ممکن است این فناوری در آینده به دنیایی منجر شود که در آن تحلیل احساسات افراد توسط هوش مصنوعی، تعیین‌کنندۀ شغل، دریافت وام یا پذیرش در دانشگاه باشد.

این فناوری نه‌تنها پتانسیل‌های علمی و کاربردی جدیدی را مطرح می‌کند، بلکه بازتابی از چالش‌های اخلاقی و اجتماعی در دنیای هوش مصنوعی است که نباید نادیده گرفته شود.


منبع خبر:
مصور
/ هوش مصنوعی گوگل و خوانش احساسات

تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی برای مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.

لینک کوتاه : https://ertebatatoresaneha.ir/?p=15661

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.