به گزارش خبرنگار مهر، محمدمهدی رحمتی مدیرعامل گروه رسانهای مهر در پنجاه و سومین نشست هیئت اجرایی اوآنا (سازمان خبرگزاریهای آسیا و اقیانوسیه) با موضوع چالشهای اخلاقی استفاده از هوش مصنوعی در صنعت رسانه – راهکارهای جهانی به ایراد سخنرانی پرداخت.
در ابتدا رحمتی گفت: خوشحالم که دوباره به بهانه نشستهای OANA دور یکدیگر جمع شدهایم و میتوانیم در مورد موضوعات و چالشهایی که به عنوان مدیران خبرگزاری کشورهایمان با آن مواجه هستیم، صحبت کنیم. حال در این دوره از نشست هایمان که قرار است بیشتر در مورد هوش مصنوعی صحبت کنیم، من نیز فرصت را مغتنم دانستم تا در مورد این موضوع جالب و چالش برانگیز، مقداری با شما صحبت کنم و نقطه نظرات خود را با شما به اشتراک بگذارم.
وی ادامه داد: به عنوان مقدمه بحث، بیایید با یک داستان شروع کنیم که ممکن است برای برخی از شما آشنا باشد. در سال ۲۰۱۶، مایکروسافت یک چتبات به نام TAY را معرفی کرد. ایده پشت TAY ساده بود؛ این چتبات قرار بود از طریق تعامل با کاربران در توئیتر یاد بگیرد و هر چه بیشتر با افراد صحبت کند، در مکالمهها بهتر شود. در BIO آن نیز نوشته شده بود؛ هرچه بیشتر با TAY صحبت کنید، باهوشتر میشود.” اما اتفاقات طبق برنامه پیش نرفتند. تنها در عرض ۱۶ ساعت، مایکروسافت مجبور شد TAY را متوقف کند زیرا این چتبات شروع به ارسال پیامهای نژادپرستانه و توهینآمیز کرد. TAY این پیامها را از تعاملات کاربران یاد گرفته بود که این آزمایش را به یک فاجعه کامل تبدیل کرد.
مدیرعامل گروه رسانهای مهر گفت: این مثال به ما نشان میدهد که وقتی هوش مصنوعی به درستی هدایت نشود، میتواند به سرعت منجر به مشکلات اخلاقی شود که به جامعه آسیب میزند.
ظهور فناوری دیپفیک امر نگران کنندهای است
وی افزود: مورد دیگری که نگرانکننده است، ظهور فناوری دیپفیک است. هر کدام از ما به نحوی در کشور خود با این مشکل روبرو هستیم. به طور مثال، چندی پیش مصاحبه یک پزشک متخصص که در گذشته از نمایندگان مجلس ایران نیز بوده است، در مورد سلامت رهبر در شبکههای اجتماعی منتشر شد. این پزشک متخصص در این ویدئو اعلام میکند که رهبر معظم انقلاب سلامتی شأن در خطر است و علائمی دارند که نشان دهنده عود بیماریهای گذشته او است. این مصاحبه نیز دیپ فیک بود و اساساً چنین حرفی درست نبود و گفته نیز نشد.
رحمتی گفت: در موردی دیگر، میخواهم برای شما یک ویدئو به نمایش بگذارم که طنز و جالب است. با استفاده از دیپ فیک، جنیفر لوپز در یک سریال قدیمی و محبوب ایران، به نام «خانه به دوش» که با حجاب حضور یافته است و به جای یکی از بازیگران آن، دیالوگ میگوید.
وی افزود: حال این سوال برای ما وجود دارد که اصلاً این هوش مصنوعی چیست و چگونه در رسانهها استفاده میشود؟ هوش مصنوعی به استفاده از سیستمهای کامپیوتری و الگوریتمها برای انجام وظایفی اشاره دارد که معمولاً نیاز به هوش انسانی دارند.
مدیرعامل گروه رسانهای مهر گفت: در صنعت رسانه، هوش مصنوعی به طور فزایندهای رایج شده است و کاربردهایی دارد که میتوان به تشخیص اخبار جعلی، شخصیسازی محتوای برای خوانندگان، مدیریت شبکههای اجتماعی، هدفگذاری تبلیغات و بهینهسازی نحوه جستجو و یافتن محتوا اشاره کرد.
وی ادامه داد: اگرچه اینها کاربردهای مفیدی هستند، اما همچنین باید از چالشها و خطرات مرتبط با استفاده از هوش مصنوعی، به ویژه از نظر اخلاقی، آگاه باشیم.
رحمتی با اشاره نقل قولی از هنری کیسینجر گفت: کیسینجر در کتاب «هوش مصنوعی و آینده بشریت» که با کمک همکاران خود نوشته است، میگوید: هوش مصنوعی نه تنها ظرفیت پردازش و تحلیل دادهها را به شکلی بیسابقه گسترش میدهد، بلکه بهطور بنیادین چالشهایی را در نحوه تصمیمگیری انسانها، درک ما از جهان و حتی تعریف ما از مفهوم انسان بودن ایجاد میکند؛ این فناوری به ما نشان میدهد که قدرت خلاقیت، تجربه و قضاوت انسانی ممکن است نیاز به بازتعریف داشته باشد، چرا که ماشینها در انجام وظایفی که پیشتر منحصراً برای انسانها بود، از ما پیشی میگیرند. این امر پرسشی را مطرح میکند: در جهانی که هوش مصنوعی نقشی محوری ایفا میکند، چه چیزی انسان را از غیرانسان متمایز میکند؟.
وی افزود: در جایی دیگر از این کتاب، نگرانیهایی بیان میشود که به درستی از مخاطرات هوش مصنوعی خواهد بود. مواردی مانند نظارت و حریم خصوصی (استفاده گسترده از هوش مصنوعی در نظارت میتواند به نقض حریم خصوصی افراد منجر شود)، تصمیمگیری خودکار (تصمیمگیریهای خودکار توسط هوش مصنوعی ممکن است بدون در نظر گرفتن جنبههای انسانی و اخلاقی انجام شود)، تبعیض و بیعدالتی (الگوریتمهای هوش مصنوعی ممکن است به دلیل دادههای نادرست یا تعصبات موجود در دادهها، تصمیمات تبعیضآمیز بگیرند).
استفاده از هوش مصنوعی در جنگ و امنیت میتواند به افزایش خشونت و بیثباتی منجر شود
رحمتی گفت: جنگ و امنیت یکی دیگر از این موارد است؛ استفاده از هوش مصنوعی در جنگ و امنیت میتواند به افزایش خشونت و بیثباتی منجر شود. به تازگی نیز مشاهده کردیم که سفرای ۶۰ کشور در کره جنوبی گردهم آمدند و توافقنامهای امضا کردند که از گسترش هوش مصنوعی در صنایع حساس نظامی و اطلاعاتی تا حدی جلوگیری شود تا از این طریق شاهد خطای هوش مصنوعی نباشیم.
وی افزود: برخی از دانشمندان معاصر نیز فلسفه و موجودیت هوش مصنوعی را از اساس نادرست و شیطانی میدانند. به طور مثال الکساندر دوگین، دانشمند حوزه علوم سیاسی که از قضا اهل روسیه نیز میباشد، در یکی از دیدارهای خود با یکی از روحانیون دانشمند ایرانی، آیت الله میرباقری گفته است: مدرنیته، که شامل فناوریهای پیشرفتهای همچون هوش مصنوعی است، برای من یک ایدئولوژی ناقص و شیطانی است. این فناوریها میتوانند به نابودی سنتها و ارزشهای انسانی منجر شوند.
مدیرعامل گروه رسانهای مهر با اشاره به صحبتهای «دوگین» گفت: صحبتهای دوگین برای ما اهالی فرهنگ و رسانه، زنگ خطری را به صدا در میآورد: خطر نابودی سنتها و ارزشهای انسانی! این مورد نیز در جای خود بحث مفصلی دارد که وقت پرداختن به آن وجود ندارد.
وی ادامه داد: حال که چند مثال از اشتباهات هوش مصنوعی را بررسی کردیم، بیایید به برخی از مسائل اخلاقی که هنگام استفاده از هوش مصنوعی در صنعت رسانهها مطرح میشود که اتفاقاً برای ما ایجاد چالشهایی جدی میکند.
مدیرعامل گروه رسانهای مهر با اشاره به چالشهای استفاده از هوش مصنوعی در صنعت رسانه گفت: شفافیت الگوریتمی یکی از این چالشها به شمار میرود. سیستمهای هوش مصنوعی اغلب مانند یک “جعبه سیاه” عمل میکنند، به این معنی که حتی متخصصان نیز همیشه نمیفهمند که چگونه به تصمیمات خاصی میرسند. این نبود شفافیت میتواند اعتماد مردم به هوش مصنوعی را کاهش دهد، به ویژه زمانی که برای ارائه اخبار یا اطلاعات استفاده میشود.
وی افزود: تعصب و تبعیض از دیگر چالشهای ممکن است. سیستمهای هوش مصنوعی از دادهها یاد میگیرند و اگر این دادهها دارای تعصبات باشند، هوش مصنوعی میتواند این تعصبات را منعکس کرده و حتی تقویت کند. به عنوان مثال، سیستمهای هوش مصنوعی ممکن است به طور ناخودآگاه تعصبات نژادی، جنسیتی یا سیاسی را در محتوایی که تولید میکنند، گسترش دهند. این میتواند به نتایج ناعادلانه و مضر منجر شود.
هوش مصنوعی میتواند مقالات خبری را به سرعت ایجاد کند
رحمتی گفت: مسائل حریم خصوصی از دیگر چالشهای موجود استفاده از هوش مصنوعی در صنعت رسانه به شمار میرود. سیستمهای هوش مصنوعی اغلب دادههای شخصی زیادی را جمعآوری و تحلیل میکنند. در حالی که این میتواند به شرکتهای رسانهای کمک کند محتوای شخصیسازی شدهتری ارائه دهند، اما همچنین نگرانیهای حریم خصوصی را به همراه دارد. شرکتها باید بسیار مراقب باشند که چگونه از این دادهها استفاده میکنند تا از نقض حقوق حریم خصوصی افراد جلوگیری کنند.
وی با اشاره به اعتماد به اخبار تولید شده توسط هوش مصنوعی گفت: هوش مصنوعی میتواند مقالات خبری را به سرعت ایجاد کند، اما این لزوماً به این معنی نیست که اطلاعات قابل اعتماد هستند. مردم ممکن است شروع به شک کردن در مورد اعتبار اخبار کنند اگر بدانند که این اخبار توسط یک ماشین تولید شدهاند نه یک روزنامهنگار انسانی.
مدیرعامل گروه رسانهای مهر با اشاره به اتکای بیش از حد به هوش مصنوعی گفت: با افزایش نقش هوش مصنوعی در انجام وظایف بیشتر، خطر این وجود دارد که ما بیش از حد به آن متکی شویم و تفکر انتقادی، خلاقیت و تحلیلهای انسانی که روزنامهنگاران ارائه میدهند را از دست بدهیم. این میتواند منجر به کاهش کیفیت کلی رسانهها شود.
وی با اشاره به پخش اطلاعات نادرست گفت: سیستمهای هوش مصنوعی، اگر به دقت نظارت نشوند، میتوانند به سرعت اطلاعات نادرست را پخش کنند، به ویژه در زمان بحرانها. این میتواند پیامدهای خطرناکی داشته باشد، مانند ایجاد وحشت یا سردرگمی در میان مردم.
رحمتی با اشاره به مسائل حقوقی و مسئولیتپذیری گفت: اگر یک سیستم هوش مصنوعی اشتباه کند، مانند انتشار اخبار جعلی یا محتوای تبعیضآمیز، چه کسی مسئول است؟ شرکت توسعهدهنده هوش مصنوعی، رسانه، یا شخص دیگری؟ در حال حاضر چارچوبهای قانونی روشنی برای پاسخ به این سوالات وجود ندارد.
وی با اشاره به از دست دادن شغلها گفت: با اینکه هوش مصنوعی وظایف بیشتری را در صنعت رسانهها بر عهده میگیرد، ترس از از دست دادن بسیاری از مشاغل، به ویژه برای روزنامهنگاران و تولیدکنندگان محتوا وجود دارد. این میتواند تنوع دیدگاهها در رسانهها و کیفیت محتوای تولید شده را تحت تأثیر قرار دهد.
مدیرعامل گروه رسانهای مهر به موضوع تأثیرگذاری بر افکار عمومی اشاره کرد و گفت: سازمانهای رسانهای ممکن است از هوش مصنوعی برای ایجاد محتوایی استفاده کنند که به منظور تأثیرگذاری یا دستکاری افکار عمومی طراحی شده است، که میتواند دموکراسی و اعتماد عمومی را تضعیف کند.
وی با اشاره به راهکارها و نقش همکاریهای بینالمللی گفت: با در نظر گرفتن تمام این چالشها، سوال بزرگ این است که: چه کاری میتوانیم انجام دهیم تا نگرانیهای اخلاقی هوش مصنوعی در رسانهها را برطرف کنیم؟
مدیرعامل گروه رسانهای مهرگفت: ما این فرصت را داریم که به عنوان یک جامعه جهانی، و به ویژه در چارچوب سازمان خبرگزاریهای آسیا و اقیانوسیه (اوآنا)، نقش مهمی ایفا کنیم در تعریف و ایجاد راهنماهای اخلاقی.
وی با اشاره به ایجاد راهنماهای اخلاقی جهانی گفت: ضروری است که قوانین و مقررات واضحی برای نحوه استفاده اخلاقی از هوش مصنوعی در رسانهها وضع کنیم. اوآنا میتواند به خبرگزاریهای عضو خود کمک کند تا دانش و بهترین روشها را به اشتراک بگذارند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه و شفاف استفاده میشود.
اوآنا میتواند بستری برای تدوین سیاستهای مشترک میان خبرگزاریها فراهم کند
رحمتی به آموزش حرفهایهای رسانهای اشاره کرد و گفت: روزنامهنگاران، ویراستاران و سایر حرفهایهای رسانهای نیاز به آموزش در مورد نحوه استفاده اخلاقی از هوش مصنوعی دارند. اوآنا میتواند نقش پیشرو در سازماندهی کارگاهها و جلسات آموزشی در کشورهای عضو ایفا کند تا آگاهی در مورد استفاده مسئولانه از هوش مصنوعی افزایش یابد.
وی با اشاره به نظارت بر سیستمهای هوش مصنوعی گفت: ما نیاز به سیستمهایی داریم که به طور مداوم هوش مصنوعی را برای شناسایی تعصبات یا اشتباهات ممکن نظارت کنند. این نوع نظارت بینالمللی، با حمایت اوآنا، میتواند به اطمینان از دقت و انصاف این سیستمها کمک کند.
رحمتی به تدوین سیاستهای مشترک اشاره کرد و گفت: اوآنا میتواند بستری برای تدوین سیاستهای مشترک میان خبرگزاریها فراهم کند تا استفاده اخلاقی از هوش مصنوعی در رسانهها ترویج شود. با همکاری یکدیگر، میتوانیم محیطی رسانهای ایجاد کنیم که در آن هوش مصنوعی به بهبود کیفیت، اعتماد و مسئولیتپذیری کمک کند.
وی افزود: هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد و آن را کارآمدتر و پاسخگوتر به نیازهای مخاطبان میکند. اما همانطور که دیدیم، همچنین با خطرات جدی، به ویژه از نظر اخلاقی، همراه است. به همین دلیل همکاریهای بینالمللی بسیار مهم است. با همکاری از طریق پلتفرمهایی مانند اوآنا، میتوانیم قوانین و سیستمهای لازم را برای اطمینان از استفاده مسئولانه از هوش مصنوعی توسعه دهیم، که هم صنعت رسانه و هم عموم مردم را محافظت میکند.
رحمتی گفت: ما با همکاری یکدیگر، حتماً میتوانیم گامهای مهم و قابل توجهی در راستای غلبه بر مخاطرات جدی هوش مصنوعی برداریم. از این روست که من تاکید بر همکاریهای نزدیک مانند انتقال تجربه، وضع قوانین تنظیم گر ناظر به هوش مصنوعی و همچنین برگزاری دورههای آموزشی مشترک بین خبرگزاریها میکنم، چرا که با همکاری یکدیگر حتماً میتوانیم خیلی بهتر Newsroom های خود را در جهت آگاهی بیشتر نسبت به هوش مصنوعی و راههای استفاده اخلاق مدارانه از آن سوق دهیم.
وی افزود: در پایان میخواهم همانند اجلاس قبل، یاد مردم مظلوم غزه را گرامی بدارم. مردمی که تحت شدیدترین حملات غیرانسانی و نسل کشی، مقاومت خود را ادامه میدهند و به روزهای آزادی و صلح هنوز امیدوارند. ما غزه را فراموش نمیکنیم.