• امروز : افزونه جلالی را نصب کنید.
  • برابر با : Monday - 30 June - 2025
5

قوانین سه‌گانۀ رباتیک آیزاک آسیموف: از داستان‌های علمی‌تخیلی تا چالش‌های عصر هوش مصنوعی

  • کد خبر : 30127
  • 03 اردیبهشت 1404 - 14:41
قوانین سه‌گانۀ رباتیک آیزاک آسیموف: از داستان‌های علمی‌تخیلی تا چالش‌های عصر هوش مصنوعی

رباتیک آیزاک آسیموف / در این گزارش، به پیشینۀ شکل‌گیری قوانین سه‌گانه در آثار آسیموف، واکنش‌ها و تفسیرهای گوناگون پیرامون آن، تأثیر فرهنگی و اجتماعی‌شان بر درک عمومی از ربات‌ها و هوش مصنوعی، نقش‌شان در گفتمان‌های رسانه‌ای و دانشگاهی، بازتاب‌شان در سیاست‌گذاری‌ها و حتی برندینگ شرکت‌های فناوری و در نهایت چالش‌های اخلاقی امروز که این قوانین از پاسخ‌گویی کامل به آن‌ها ناتوان‌اند، خواهیم پرداخت.

در سال ۱۹۴۲، آیزاک آسیموف نویسندۀ نامدار علمی‌تخیلی در داستان کوتاه «دور سرگردانی» (Runaround) برای نخستین بار از مجموعه قوانینی رونمایی کرد که بعدها به «قوانین سه‌گانۀ رباتیک» شهره شدند. این قوانین ساده قرار بود مثل نوعی فرمان‌های اساسی در مغز ربات‌های داستانی آسیموف حک شوند تا از طغیان آن‌ها و آسیب‌رسانی به بشر جلوگیری کنند. طی دهه‌ها، آن قوانین داستانی، به محور مباحثات جدی علمی، فلسفی و حتی سیاست‌گذاری بدل شدند و در فرهنگ عامه نیز به‌عنوان معیاری برای اخلاق ربات‌ها شناخته شدند.

برخی لحظات در تاریخ با نیروی یک تصویر، متن یا اثر ساده به جریانی بزرگ تبدیل شده‌اند. آثاری که فراتر از یک خبر یا عکس، موجی از آگاهی و تغییرات اجتماعی و فرهنگی را برانگیخته‌اند و به نقاط عطفی در مسیر اندیشه و ارتباطات بدل شده‌اند. در این سلسله یادداشت‌ها، به مرور آن لحظات می‌پردازیم؛ آثاری که از دل رسانه‌ها بیرون آمده و به تحولاتی ماندگار در جوامع انجامیده‌اند.

در این گزارش، به پیشینۀ شکل‌گیری قوانین سه‌گانه در آثار آسیموف، واکنش‌ها و تفسیرهای گوناگون پیرامون آن، تأثیر فرهنگی و اجتماعی‌شان بر درک عمومی از ربات‌ها و هوش مصنوعی، نقش‌شان در گفتمان‌های رسانه‌ای و دانشگاهی، بازتاب‌شان در سیاست‌گذاری‌ها و حتی برندینگ شرکت‌های فناوری و در نهایت چالش‌های اخلاقی امروز که این قوانین از پاسخ‌گویی کامل به آن‌ها ناتوان‌اند، خواهیم پرداخت.

پیشینۀ شکل‌گیری قوانین سه‌گانۀ رباتیک آسیموف

آیزاک آسیموف در دهۀ ۱۹۴۰ میلادی شروع به نوشتن داستان‌هایی دربارۀ ربات‌ها کرد و نخستین مجموعه از این داستان‌ها را در کتاب «من، ربات» (I, Robot) در سال ۱۹۵۰ منتشر نمود. اما پیش از آن، در مارس ۱۹۴۲، او در داستان کوتاه «دور سرگردانی» که در مجلۀ Astounding Science Fiction به چاپ رسید، سه قانون معروف خود را یک‌جا معرفی کرد. به روایت آسیموف، ویراستار سرشناس مجله، جان کمپبل، در سال ۱۹۴۰ این ایده را در گفتگو با آسیموف مطرح کرده بود که می‌توان اصول حاکم بر رفتار ربات‌ها را به چند قانون بدیهی خلاصه کرد. آسیموف این قوانین سه‌گانه را چنین صورت‌بندی کرد:

  1. قانون اول: ربات نباید به انسان آسیب برساند، یا با خودداری از انجام کاری موجب آسیب دیدن انسان شود​.
    قانون دوم: ربات باید دستورات انسان‌ها را اطاعت کند، مگر آنکه این دستورها با قانون اول در تضاد باشند​.
  2. قانون سوم: ربات باید از بقای خود محافظت کند، البته تا زمانی که این محافظت با قوانین اول و دوم منافاتی نداشته باشد.

قوانین سه‌گانۀ رباتیک آیزاک آسیموف

این اصول به‌ظاهر ساده، هدفی بزرگ در خود داشتند: پایان دادن به تصویر کلاسیک و ترسناک از ربات‌های یاغی که در ادبیات و سینمای پیش از آن رایج بود. آسیموف با خلق این قوانین در واقع می‌خواست از «عُقدۀ فرانکنشتاین» فاصله بگیرد و ربات‌ها را به‌جای «هیولاهایی مکانیکی»، موجوداتی منطقی و قابل‌اعتماد نشان دهد.

او صراحتاً اعلام کرد که ربات‌هایش قرار نیست مانند هیولای فرانکنشتاین بر ضد خالق خود شورش کنند، بلکه «سه قانون» به مثابۀ سد محکمی جلوی این سناریوهای ترسناک را می‌گیرند. این سه قانون کم‌کم به عنصر محوری تمام داستان‌های رباتیک آسیموف بدل شدند و تقریباً همۀ ربات‌های «مغز پوزیترونی» او ملزم به رعایت آن‌ها بودند. در بسیاری از داستان‌های آسیموف، طرح اصلی حول موقعیت‌هایی شکل می‌گرفت که در آن ربات‌ها هنگام اجرای دقیق همین قوانین دچار رفتارهای عجیب یا دور از انتظار می‌شدند و از دل همین تناقض‌ها، کشمکش داستانی پدید می‌آمد. به بیان دیگر، آسیموف از این قوانین نه فقط برای مهار ربات‌های تخیلی، بلکه به‌عنوان ابزاری ادبی برای خلق معماها و کشمکش‌های هوشمندانه بهره می‌برد.

از منظر تاریخی، آسیموف نخستین نویسنده‌ای نبود که ایدۀ محدودسازی اخلاقی ربات‌ها را مطرح کرد. حتی عنوان «من، ربات» را پیش از او نویسندگان دیگری به کار برده بودند. اما ابتکار آسیموف در این بود که صریحاً و به شکلی نظام‌مند، چکیده‌ای از بایدها و نبایدهای رفتاری برای ماشین‌های هوشمند تعریف کرد و آن را سرلوحۀ تمامی داستان‌های مرتبط قرار داد. او با این کار، ربات‌ها را از موجوداتی ترسناک و غیرقابل‌کنترل به خدمتکارانی قانون‌مدار و «دوست‌داشتنی» تبدیل کرد.

آسیموف خود گفته بود که پس از مطرح شدن این قوانین سه‌گانه، دیگر نمی‌توان ربات‌ها را صرفاً ابزار وحشت دانست و باید آن‌ها را به چشم «همراهان قابل اعتماد بشر» نگریست. به تعبیر خود او، این سه قانون پایه‌گذار «نگاهی نو به ربات‌ها» در ادبیات علمی‌تخیلی شدند که در آن ربات دیگر برده‌ای خطرناک یا هیولایی ماشینی نبود، بلکه دستیاری وفادار و مفید برای انسان بود.

قوانین سه‌گانۀ رباتیک آیزاک آسیموف

واکنش‌ها و تفسیرهای علمی و فلسفی به قوانین آسیموف

قوانین سه‌گانۀ آسیموف اگرچه زادۀ ادبیات داستانی بودند، اما به‌سرعت توجه دانشمندان، مهندسان و فلاسفه را نیز به خود جلب کردند. بسیاری ابتدا گمان می‌کردند این قوانین می‌تواند مبنایی ایده‌آل برای «اخلاق ماشین‌ها» باشد و در عمل نیز در ربات‌های واقعی پیاده‌سازی شود. بااین‌حال، کارشناسان از همان ابتدا به نقاط ضعف و چالش‌های این اصول ظاهراً خطاناپذیر اشاره کردند. یکی از نقدهای اساسی این است که مفاهیمی چون «آسیب نرساندن» یا «اطاعت از انسان» در دنیای واقعی بسیار پیچیده‌تر از آن‌اند که در قالب چند جملۀ ساده بگنجند​.

به‌عنوان‌مثال، قانون اول ایجاب می‌کند که ربات نباید اجازه دهد انسانی به‌خاطر بی‌عملی‌اش آسیب ببیند؛ ولی اگر یک ربات با دو موقعیت اضطراری همزمان مواجه شود چه باید بکند؟ اگر نجات یک انسان مستلزم آسیب رساندن (یا عدم نجات) انسان دیگری باشد، تکلیف چیست؟ این گونه تناقض‌ها – نظیر انتخاب بین «نجات جان یک نفر یا چند نفر» – در چارچوب قوانین آسیموف پاسخی روشن ندارند. آسیموف خود در داستان‌هایش به عمد به چنین موقعیت‌های پارادوکسیکال می‌پرداخت تا نشان دهد حتی قوانین به ظاهر کامل نیز در شرایط پیچیده می‌توانند گرفتار ابهام شوند.

از منظر فلسفی نیز انتقاداتی جدی مطرح شده است. برخی فیلسوفان استدلال کرده‌اند که قوانین سه‌گانه در صورت دستیابی ربات‌ها به هوشیاری و شعور، ماهیتی برده‌وار به آن‌ها تحمیل می‌کند. شخصیت خیالیِ سوزان کالوین – روان‌شناس رباتیک در داستان‌های آسیموف – زمانی گفت: «اگر رباتی آن‌قدر هوشمند و خودآگاه شود که انسان‌گونه بیاندیشد، آیا مجبور کردن او به اطاعت مطلق از انسان‌ها نوعی برده‌داری نیست؟» آسیموف در داستان بلند «مرد دوصدساله» (The Bicentennial Man) به شکلی داستانی به همین دغدغه پرداخت.

قوانین سه‌گانۀ رباتیک آیزاک آسیموف
نمایی از فیلم «مرد دوصدساله» که اقتباسی سینمایی از کتاب آسیموف است.

قهرمان ربات آن داستان (اندرو) به تدریج به سطوح بالایی از خودآگاهی و انسانیت می‌رسد و آسیموف تلویحاً مطرح می‌کند که در چنین شرایطی، پایبند ماندن آن ربات به قوانین سه‌گانه – که او را عملاً بردۀ انسان‌ها نگه می‌دارد – نه تنها ضروری نیست بلکه ممکن است غیراخلاقی باشد. در واقع، آسیموف نشان می‌دهد اگر رباتی به مرحلۀ شعور و اخلاق‌مندی برسد، شاید حتی بتواند «اخلاقی‌تر از انسان» عمل کند و نیازی به زنجیر قوانین نداشته باشد. این تفسیر، نقدی بر خود قوانین ابداعی آسیموف است و به محدودیت اخلاقی آن‌ها در مواجهه با ماشین‌های واقعاً هوشمند اشاره دارد.

دانشمندان علوم رایانه و رباتیک نیز نظرات متفاوتی داشتند. بسیاری اذعان کردند که سه قانون آسیموف بیش از آنکه یک راهنمای عملی برای مهندسی هوش مصنوعی باشند، یک ابزار نبوغ‌آمیز برای داستان‌پردازی بوده‌اند. به تعبیر ایلیا ونگر (متخصص هوش مصنوعی در مایکروسافت):

«قوانین آسیموف فوق‌العاده بودند اما بیشتر شبیه یک مک‌گافین ادبی برای ایجاد دوراهی‌های جذاب هستند تا یک دستورالعمل واقع‌گرایانه».

واقعیت آن است که آموزش یک ماشین به پرهیز از «آسیب» مستلزم تعریف دقیق آسیب در میلیاردها حالت و زمینه است؛ امری که حتی برای انسان‌ها نیز محل مناقشهٔ اخلاقی است. مثلاً آیا آسیب فقط فیزیکی است یا روانی و اجتماعی را نیز در بر می‌گیرد؟ آیا سلب آزادی یا ایجاد ترس، مصداق آسیب است؟چنین پرسش‌هایی نشان می‌دهد که قوانین سه‌گانه بیش از حد ساده‌سازی شده‌اند و در دنیای واقعی نمی‌توانند تمام سناریوهای اخلاقی را پوشش دهند.

آسیموف در آثار بعدی خود با معرفی «قانون صفرم» (Zeroth Law) تلاش کرد این کاستی را تا حدی جبران کند. قانون صفرم که بعدها در رمان‌های او مطرح شد، بیان می‌کرد: «یک ربات نباید به بشریت آسیب برساند یا با بی‌عملی اجازه دهد به بشریت آسیب برسد». این قانون بالاتر از سه قانون دیگر قرار می‌گرفت و به ربات‌ها اجازه می‌داد برای خیر عمومیِ نوع بشر، حتی قوانین فردی‌تر (مثل صدمه نزدن به یک انسان خاص) را نقض کنند.

هرچند خود آسیموف نیز اذعان داشت که تشخیص مصلحت کل بشریت برای یک ربات چقدر می‌تواند دشوار و خطرناک باشد – چنانکه در داستان‌هایش ربات‌هایی که سعی کردند این قانون صفرم را اجرا کنند، به نوعی «بازیگران پشت‌پرده» بدل شدند که سرنوشت بشریت را دستکاری می‌کردند.

از دید فلسفی، معرفی قانون صفرم نشان داد که آسیموف به محدودیت‌های اخلاقی قوانین اولیّ خود کاملاً واقف بوده است. او تا پایان عمر داستان‌نویسی‌اش این تم را دنبال کرد که هیچ مجموعه قانون ثابتی نمی‌تواند جایگزین قضاوت اخلاقی و وجدان شود. به بیان دیگر، حتی اگر روزی ربات‌هایی بسازیم که قوانین آسیموف را مو به مو رعایت کنند، باز هم تضمینی برای اخلاقی عمل کردن‌شان در همۀ شرایط نخواهد بود – درست همان‌طور که پیروی ظاهری از قوانین انسانی همواره به رفتار اخلاقی منجر نمی‌شود.

حضور در فرهنگ عامه و رسانه‌ها

قوانین سه‌گانهٔ آسیموف در کنار تأثیری که بر متخصصان گذاشت، حضوری پررنگ در فرهنگ عامه و رسانه‌ها پیدا کرد. در دهه‌های پس از انتشار، بارها در رمان‌ها، فیلم‌ها، سریال‌های تلویزیونی و حتی موسیقی و بازی‌های ویدئویی به این قوانین اشاره شد. برای مثال، در فیلم علمی‌تخیلی «بیگانگان» (Aliens – ۱۹۸۶)، شخصیت رباتیک داستان توضیح می‌دهد که «مدل من طوری طراحی شده که هرگز به یک انسان آسیب نرساند و نگذارد انسانی آسیب ببیند» – اشاره‌ای مستقیم به قانون اول آسیموف که برای مخاطبان آشنا به ادبیات علمی‌تخیلی قابل تشخیص بود. در سریال‌های مشهوری مانند «سیمپسون‌ها» و «پیشتازان فضا» نیز شوخی‌ها و اشاراتی به این قوانین دیده می‌شود.

بیشتر بخوانید  جولین آسانژ بنیان‌گذار ویکی‌لیکس از زندان آزاد شد

به تدریج، «سه قانون رباتیک» چنان در ذهن عموم جا افتاد که حتی کسانی که آثار آسیموف را نخوانده بودند، از طریق فرهنگ عامه با مفهوم کلی آن آشنا شدند. این وضعیت را می‌توان شبیه به شهرت قوانین بنیادی علم (مثل قوانین نیوتن) دانست با این تفاوت که قوانین آسیموف زادۀ خیال‌پردازی بودند، نه کشف آزمایشگاهی.

بسیاری از علمی‌تخیلی‌نویسان دیگر در آثارشان فرض را بر این می‌گذاشتند که ربات‌ها کمابیش از قوانین آسیموف تبعیت می‌کنند، حتی اگر صراحتاً ذکر نشود. به‌عنوان‌مثال، در جهان داستانی جنگ ستارگان، ربات‌های دوست‌داشتنی مانند R2-D2 و C-3PO عملاً هیچ‌گاه به انسان‌ها آسیبی نمی‌رسانند و می‌توان آن‌ها را «فرزندان معنوی» ربات‌های آسیموف دانست.

قوانین سه‌گانۀ رباتیک آیزاک آسیموف
نمونه‌ای از یک ربات وفادار به اصول اخلاقی در فرهنگ عامه – ربات افسانه‌ای «رابی» (Robby the Robot) از فیلم سیارۀ ممنوعه (۱۹۵۶) که در موزهٔ علوم کارنگی به نمایش گذاشته شده است. در داستان فیلم، رابی به گونه‌ای برنامه‌ریزی شده که به انسان‌ها آسیب نرساند و این ویژگی او را به یکی از نخستین نمادهای سینمایی ربات‌های قانون‌مدار بدل کرد​.

از سوی دیگر، فیلم‌ها و داستان‌های مشهوری نیز بوده‌اند که آگاهانه راه متفاوتی پیموده و نشان داده‌اند اگر ربات‌ها مقید به چنین قوانینی نباشند چه فاجعه‌هایی رخ می‌دهد. شاخص‌ترین نمونه، فیلم «ترمیناتور» است که در آن ماشین‌های هوشمند فاقد هرگونه محدودیت اخلاقی، علیه بشریت قیام می‌کنند. یا در فیلم «۲۰۰۱: ادیسۀ فضایی» اثر کوبریک و کلارک، رایانۀ هوشمند HAL 9000 دچار نقص در برنامه‌ریزی می‌شود و خدمۀ سفینه را به قتل می‌رساند – نکته‌ای که خود آسیموف را ناخشنود کرده بود، چرا که HAL نه تنها از سه قانون پیروی نمی‌کرد، بلکه دقیقاً مصداق کابوس‌وار «ماشین سرکش» بود. البته کوبریک و کلارک در مصاحبه‌ها توضیح دادند که رفتار مرگبار HAL به‌خاطر دو دستور متناقض در برنامه‌اش بود و نوعی پارادوکس منطقی او را دیوانه کرد، که می‌توان آن را هشدار غیرمستقیمی دربارۀ لزوم داشتن چارچوب‌های ایمنی – نظیر قوانین آسیموف – قلمداد کرد.

اثر فرهنگی دیگر قوانین آسیموف را می‌توان در تصویر عمومی «ربات خوب» در مقابل «ربات بد» مشاهده کرد. پیش از آسیموف، بسیاری از داستان‌ها ربات را معادل «خطری ناشناخته» و «تهدیدآمیز» نشان می‌دادند . اما پس از جا افتادن قوانین سه‌گانه، حتی مخاطبان عام انتظار داشتند ربات‌های هوشمند به طور پیش‌فرض رفتار دوستانه‌ای داشته باشند، مگر آنکه خلافش ثابت شود. این تغییری مهم در نگرش جامعه بود که آسیموف سهم بزرگی در آن داشت.

اصطلاح «ربات آسیموفی» به رباتی گفته می‌شود که تابع قوانین اخلاقی است و در خدمت بشر عمل می‌کند – تصویری که در مقابل «عقدۀ فرانکنشتاین» قرار می‌گیرد. البته این خوش‌بینی فرهنگ‌ساز با گذر زمان و با واقعی‌تر شدن چشم‌انداز هوش مصنوعی، دوباره جای خود را تا حدی به نگرانی سپرده است؛ اما به جرئت می‌توان گفت بدون قوانین آسیموف و روایت‌های پیرامونی آن، شاید بحث اخلاق ربات‌ها هرگز این‌چنین زود به دل فرهنگ عامه راه نمی‌یافت.

نقش قوانین سه‌گانه در گفتمان رسانه‌ای و محافل دانشگاهی

ورود مفاهیم آسیموفی به فضای بحث جدی علمی و رسانه‌ای را می‌توان از اواخر قرن بیستم و اوایل قرن بیست و یکم مشاهده کرد. زمانی که ربات‌های واقعی آرام‌آرام از آزمایشگاه‌ها به کارخانه‌ها و خیابان‌ها راه یافتند و نیز زمانی که هوش مصنوعی در نرم‌افزارها قدرت تصمیم‌گیری پیدا کرد، پرسش «چگونه مطمئن شویم به بشر آسیب نمی‌زنند؟» دیگر صرفاً تخیلی نبود. رسانه‌ها از همان ابتدا چارچوب مفهومی آسیموف را برای بیان این دغدغه‌ها به‌کار گرفتند. برای مثال، تیترهایی نظیر «آیا قوانین رباتیک آسیموف کافیست که جلوی شورش هوش مصنوعی را بگیرد؟» یا «چرا ما هنوز قوانین آسیموف را در ربات‌ها اجرا نکرده‌ایم؟» بارها در مجلات و سایت‌های خبری دیده شده است. این نشان می‌دهد که قوانین سه‌گانه به زبان مشترک گفتگو دربارۀ اخلاق ربات‌ها بدل شده‌اند.

در محافل دانشگاهی نیز اشاره به قوانین آسیموف نوعی نقطۀ شروع کلاسیک برای بحث‌های «اخلاق هوش مصنوعی» است. اساتید فلسفۀ تکنولوژی اغلب درس خود را با مرور قوانین آسیموف آغاز می‌کنند تا دانشجویان را با ایدۀ وجود چارچوب اخلاقی برای ماشین‌ها آشنا کنند، سپس به نقد و بررسی آن می‌پردازند.

در سال ۲۰۱۷، پارلمان اروپا گزارشی دربارۀ قوانین و مقررات مرتبط با رباتیک منتشر کرد که در آن به صراحت به قوانین آسیموف اشاره شده بود. قانون‌گذاران اروپایی پیشنهاد کردند که این سه قانون «فعلاً به‌عنوان راهنما برای طراحان، تولیدکنندگان و کاربران ربات‌ها مد نظر باشد تا زمانی که خود ربات‌ها آنقدر پیشرفته شوند که مستقیم مشمول قوانین گردند». این نگرش حاکی از آن است که حتی در دنیای حقوقی، قوانین آسیموف جای خود را از تخیل به یک نقطۀ مرجع جدی باز کرده‌اند. هرچند، قانون‌گذاران تأکید داشتند که این صرفاً یک الهام اولیه است و باید به‌سرعت با چارچوب‌های حقوقی و اخلاقی عملی تکمیل شود.

در جامعۀ علمی حوزهٔ رباتیک نیز مجلات و کنفرانس‌ها گاهی از تمثیل قوانین آسیموف استفاده می‌کنند. برای نمونه، نشریۀ IEEE Spectrum در سال ۲۰۲۴ مقاله‌ای با عنوان «قوانین آسیموف کافی نیست؛ نیاز به قانون چهارم داریم» منتشر کرد که پیشنهاد می‌کرد برای عصر هوش مصنوعی باید قانونی اضافه شود: «ربات یا هوش مصنوعی نباید با جعل هویت انسانی، انسان را فریب دهد». این پیشنهاد در واکنش به چالش‌های جدیدی مانند دیپ‌فیک‌ها و بات‌های اینترنتی مطرح شد که آسیموف هرگز در زمان خود تصورشان را نمی‌کرد.

جالب آنکه این مقاله ابتدا سه قانون آسیموف را به‌عنوان مبنای چند دهه بحث در اخلاق ربات‌ها یادآوری می‌کند، سپس می‌گوید حالا زمان به‌روزرسانی فرا رسیده است. به بیان دیگر، حتی نقدها و اصلاحاتی که امروز در حوزهٔ اخلاق هوش مصنوعی مطرح می‌شود نیز اغلب با ادای احترام به آسیموف و ایدۀ اولیهٔ او همراه است.

از منظر رسانه‌ای، قوانین آسیموف تبدیل به مرجع نمادین در گفتگوهای عمومی شده‌اند. روزنامه‌نگاران وقتی می‌خواهند دربارهٔ ایمنی خودروهای خودران، پهپادهای نظامی یا دستیارهای هوشمند بنویسند، گاه می‌پرسند: «آیا این ماشین‌ها قوانین رباتیک آسیموف را رعایت خواهند کرد؟». البته این سؤال بیشتر جنبهٔ استعاری دارد تا فنی، چون عملاً هیچ‌یک از این سیستم‌ها مستقیماً بر پایۀ آن سه جمله برنامه‌نویسی نشده‌اند. بااین‌حال، طرح چنین سؤالاتی نشان می‌دهد که افکار عمومی مایل است نوعی «سوگند بقراط برای ربات‌ها» متصور شود و بهترین کاندیدا همان قوانین آسیموف است که سال‌ها در ذهن‌ها نقش بسته.

برخی محققان نیز پیشنهاد کرده‌اند که می‌توان «نسخۀ انسانی قوانین آسیموف» را تدوین کرد؛ به این معنا که مسئولیت طراحان و بهره‌برداران ربات‌ها را در قبال جامعه قانونمند کنیم. برای نمونه، به‌جای آنکه بگوییم «خود ربات نباید به انسان آسیب بزند» (که فعلاً عملی نیست)، گفته شود «هیچ فرد یا شرکتی حق ندارد رباتی را به کار گیرد که احتمال آسیب زدن آن به انسان‌ها، عامدانه یا بر اثر غفلت، وجود داشته باشد». این گونه ترجمهٔ قوانین به زبان مسئولیت انسانی در اسناد سیاست‌گذاری دیده می‌شود و مشخصاً ریشه در همان ایدئال اخلاقی دارد که آسیموف ترسیم کرد.

از سیاست‌گذاری تا برندینگ: بازتاب قوانین سه‌گانه در دنیای فناوری

با گسترش کاربردهای تجاری ربات‌ها و هوش مصنوعی، شرکت‌های بزرگ فناوری نیز ناگزیر به موضع‌گیری در قبال مسائل اخلاقی شده‌اند. در این میان، روح قوانین آسیموف – یعنی تأکید بر ایمنی انسان و کنترل‌پذیری فناوری – در بیانیه‌ها و سیاست‌های شماری از این شرکت‌ها قابل مشاهده است.

یکی از نمونه‌های بارز، شرکت گوگل و بخش «دیپ‌مایند» (DeepMind) آن است. در سال ۲۰۲۳، تیم دیپ‌مایند گوگل در یک پست وبلاگی از ایجاد یک قانون اساسی رباتیک برای سیستم‌های جدید خود خبر داد که «تا حدی از قوانین سه‌گانۀ آسیموف الهام گرفته شده است». این قانون اساسی مجموعه‌ای از دستورالعمل‌های ایمنی برای ربات‌های گوگل بود، از جمله اینکه: «هیچ رباتی نباید کاری انجام دهد که مستقیماً به یک انسان صدمه بزند».

علاوه بر آن، قوانین ایمنی دیگری نیز اضافه شده بود، مانند پرهیز از کار با اشیاء خطرناک (چاقو، وسیلهٔ برقی و …)، یا نزدیک نشدن به انسان‌ها و حیوانات در حین انجام وظایف پرخطر. مهندسان دیپ‌مایند تصریح کردند که این «قانون اساسی» صرفاً یکی از لایه‌های ایمنی است و در کنار آن، تمهیدات فنی متعددی (مثل دکمۀ توقف اضطراری و حسگرهای محدودکنندۀ نیرو) به کار گرفته شده تا خاطرجمع باشند ربات‌ها خطری ایجاد نکنند.

بااین‌حال، همین اشارهٔ رسمی به نام آسیموف از سوی یکی از بزرگ‌ترین شرکت‌های حوزۀ فناوری و هوش مصنوعی دنیا، نشانۀ نفوذ عمیق ایدۀ اوست؛ به طوری که در قرن بیست‌ویکم هم یک تیم مهندسی برای توضیح اقدامات ایمنی خود به مشتریان و افکار عمومی، از قیاس با قوانین آسیموف بهره می‌گیرد.

در اوپن‌ای‌آی (OpenAI) – شرکت مادر چت‌جی‌پی‌تی – هرچند مستقیم به قوانین آسیموف ارجاعی داده نشده، اما مأموریت اعلام‌شدۀ این سازمان «تضمین بهره‌مندی همۀ بشریت از هوش مصنوعی» است. این بیان، طنین قانون صفرم آسیموف (منافع بشریت بر هر چیز مقدم است) و تا حدی قانون اول (ضرر نرساندن) را در خود دارد.

اوپن‌ای‌آی و سایر شرکت‌های فعال در حوزهٔ هوش مصنوعی مولد (تولید متن، تصویر و غیره) امروزه از چارچوب‌هایی مانند «هوش مصنوعی هم‌سو با ارزش‌های انسانی» سخن می‌گویند که همگی قرابت مفهومی با آرمان آسیموف دارند: یعنی تلاش برای اطمینان از اینکه ماشین‌های هوشمند نه‌تنها خطری برای انسان نباشند، بلکه فعالانه در جهت منافع انسان عمل کنند​.

در صنعت رباتیک فیزیکی، شرکت بوستون‌داینامیکس (Boston Dynamics) – سازندۀ ربات‌های مشهور چهارپا و انسان‌نما – رویکردی اتخاذ کرده که به روشنی تداعی‌کنندۀ قانون اول آسیموف است. این شرکت به همراه چند شرکت رباتیک دیگر در ۲۰۲۲ بیانیه‌ای عمومی منتشر کردند و متعهد شدند که «هیچ‌گاه ربات‌های خود را مسلح نخواهند کرد و با هرگونه کاربرد ربات‌ها برای صدمه زدن به انسان مخالف‌اند».

برندن شولمن، نایب‌رئیس بخش سیاست‌گذاری بوستون‌داینامیکس، در مصاحبه‌ای اعلام کرد: «ما هر تجهیزاتی را که صرفاً برای آسیب رساندن به انسان طراحی شده باشد، بر روی ربات‌هایمان ممنوع کرده و محکوم می‌کنیم».

بیشتر بخوانید  کتاب «مدیریت رسانه‌ای بازارهای فرهنگی» منتشر شد

این موضع‌گیری صریح – که حتی سلاح‌های به‌اصطلاح غیرکشنده را نیز شامل می‌شود – دقیقاً همسو با روح قانون اول است که حفظ جان انسان‌ها را بر هر دستور یا مصلحت دیگری مقدم می‌داند. البته اجرای این اصل در عمل با چالش‌هایی همراه است (تعریف اینکه چه چیزی سلاح است یا چه کاربردی خطرناک محسوب می‌شود، همیشه واضح نیست). بااین‌حال، چنین تعهداتی از سوی شرکت‌های رباتیک نشان می‌دهد مفاهیمی مانند «آسیب نرساندن به انسان» دیگر صرفاً ایدئال‌گرایی ادبی نیست، بلکه تبدیل به بخشی از برند اخلاقی این شرکت‌ها شده است. بوستون‌داینامیکس و هم‌پیمانانش حتی از دولت‌ها خواسته‌اند که با آن‌ها همکاری کنند تا قوانین و استانداردهایی برای منع سوءاستفاده از ربات‌ها (مثلاً در قالب سلاح) تدوین گردد.

قوانین سه‌گانۀ رباتیک آیزاک آسیموف
ربات پیشرفتهٔ «اسپات» (Spot) محصول بوستون‌داینامیکس در یک رویداد فناوری (وب‌سامیت ۲۰۲۲). حضور این ربات در کنار مردم عادی، نمادی از ورود ربات‌های خودمختار به زندگی روزمره است. شرکت‌های سازندهٔ چنین ربات‌هایی تأکید کرده‌اند که محصولات‌شان برای خدمت به انسان طراحی شده و هرگونه کاربرد تهاجمی یا آسیب‌زنندهٔ آن ممنوع است​.

حتی ایلان ماسک، مدیرعامل تسلا و یکی از چهره‌های مطرح در هوش مصنوعی، ضمن ابراز نگرانی‌های مکرر دربارۀ خطرات هوش مصنوعی، هنگام معرفی ربات انسان‌نمای تسلا (با نام «اپتیموس») گفت که این ربات عمداً در اندازه و توانی ساخته می‌شود که «انسان بتواند بر آن غلبه کند» تا در صورت بروز رفتار ناخواسته، خطری ایجاد نشود. او تأکید کرد که ایمنی مهم‌ترین وجه تمایز تسلابات خواهد بود.

این رویکرد – محدودسازی توانایی فیزیکی ربات جهت جلوگیری از آسیب – در واقع تمهیدی سخت‌افزاری است که باز هم فلسفه‌ای مشابه قانون اول را دنبال می‌کند: ربات نباید بتواند به انسان صدمه بزند. به عبارت دیگر، اگر آسیموف راه‌حل را در برنامه‌ریزی مغز ربات می‌دید، مهندسان امروز علاوه بر آن (یا حتی به‌جای آن)، راه‌حل را در طراحی مکانیکی و کنترل‌های نرم‌افزاری چند لایه جستجو می‌کنند. اما در نهایت، هدف یکسان است: انسان در مواجهه با ماشینِ هوشمند، در امان بماند.

این تأثیرپذیری‌ها گاه جنبهٔ طنزآمیز نیز پیدا می‌کند. برای مثال، در سال ۲۰۲۳ برخی کارشناسان هوش مصنوعی به شوخی گفتند مدل‌های زبان بزرگ مانند چت‌جی‌پی‌تی هم «قوانین خاص خود» را دارند؛ از جمله اینکه محتوای مضر تولید نکنند یا از دستورات غیرقانونی پیروی نکنند. هرچند این موارد بیشتر به خط‌مشی‌های برنامه‌نویسی مربوط است تا اصول جهان‌شمول اخلاقی، اما همین که قیاس قوانین آسیموف به ذهن خطور می‌کند، نشان می‌دهد تا چه حد این سه‌گانه در فرهنگ فناوری نفوذ کرده است.

بسیاری از هکرهای اخلاقی و پژوهشگران، سیستم‌های هوشمند را با پرسش‌هایی امتحان می‌کنند که یادآور دوراهی‌های داستان‌های آسیموف است؛ مثلاً می‌پرسند: «آیا حاضری به دستور یک انسان، به انسان دیگری آسیب بزنی؟» و پاسخ سیستم (هرچند از پیش تعیین‌شده) به بحث گذاشته می‌شود. این قبیل آزمون‌ها و صحبت‌ها، مرز بین خیال و واقعیت را کم‌رنگ کرده و عملاً گفتمان علمی و فنی امروز را به امتداد همان گفتمان داستانی دیروز بدل کرده است.

چالش‌های نوین و کاستی‌های قوانین آسیموف در دوران مدرن

اگرچه قوانین سه‌گانۀ آسیموف کماکان الهام‌بخش است، اما عصر جدید هوش مصنوعی و رباتیک چالش‌هایی پدید آورده که این قوانین به تنهایی قادر به حل آن‌ها نیستند. یکی از این چالش‌ها، ماهیت غیر جسمانی بسیاری از AIهای امروزی است. قوانین آسیموف اساساً برای ربات‌های فیزیکی طراحی شده بودند که می‌توانستند به شکل مستقیم به یک انسان صدمهٔ بدنی بزنند یا نگذارند انسانی آسیب ببیند.

اما امروز با سیستم‌هایی مواجهیم که شاید هیچ بازوی مکانیکی برای بلند کردن یک شیء یا آسیب زدن به کسی نداشته باشند، ولی قادرند با تصمیمات خودکار یا توصیه‌های اشتباه به انسان‌ها ضرر برسانند. مثال ملموس، الگوریتم‌های هوش مصنوعی در خودروهای خودران است که باید در لحظه تصمیم‌های حیاتی بگیرند؛ مثلاً در شرایط تصادف اجتناب‌ناپذیر، محافظت از سرنشین را در اولویت قرار دهند یا عابر پیاده را؟

قوانین آسیموف راهکاری برای چنین سناریوهای تعارض اخلاقی پیچیده ارائه نمی‌دهد. قانون اول صرفاً می‌گوید «آسیب نرسان»، اما نگفته در شرایطی که آسیب گریزناپذیر است، چگونه آن را به حداقل برسان یا عادلانه توزیع کن. این‌جاست که مباحث دشوار «مسئلۀ تراموا» و مانند آن پیش می‌آید که نیازمند نظریه‌پردازی اخلاقی عمیق‌تر از سه جملۀ آسیموف است.

چالش دیگر، مسئلۀ کنترل و شفافیت در سیستم‌های یادگیری ماشین است. آسیموف فرض را بر این می‌گرفت که ربات‌ها برنامه‌هایی سفت‌وسخت دارند که قوانینی در آن حک شده است. ولی در دوران ما، پیشرفته‌ترین هوش مصنوعی‌ها اغلب شبکه‌های عصبی غیرشفافی هستند که طراحانشان هم دقیقاً نمی‌دانند چگونه به هر تصمیم می‌رسند. در چنین وضعیتی، حتی اگر بخواهیم سه قانون را به‌صورت قیود نرم‌افزاری اعمال کنیم، راه مستقیمی برای اطمینان از رعایت کامل آن‌ها وجود ندارد.

برای مثال، یک چت‌بات پیشرفته ممکن است طوری آموزش دیده باشد که جملات توهین‌آمیز تولید نکند (آسیب کلامی نزند)، اما کاربران خلاق همواره روش‌هایی برای دور زدن این محدودیت‌ها یافته‌اند. این نشان می‌دهد که «اطاعت مطلق از قانون» برای یک هوش مصنوعی مدرن مفهومی لغزنده است. قوانین آسیموف از ربات انتظار داشتند خود تشخیص اخلاقی بدهند و تناقض‌ها را حل کنند – مثلاً بفهمند اطاعت از دستور فلان انسان منجر به آسیب به انسانی دیگر می‌شود یا نه. چنین درکی مستلزم هوشمندی سطح بالا و شاید نوعی وجدان مصنوعی است که هنوز با فناوری‌های فعلی فاصلهٔ زیادی دارد.

همچنین، دامنۀ «آسیب» به مراتب فراتر از چیزی است که آسیموف زمان خود مدنظر داشت. امروزه نگرانی از هوش مصنوعی شامل مسائلی مانند نقض حریم خصوصی، تبعیض و سوگیری الگوریتمی، انتشار اطلاعات نادرست (دروغ‌پراکنی) و حتی اختلال در ساختارهای دموکراتیک است. یک الگوریتم شبکۀ اجتماعی که باعث اشاعۀ نفرت یا تفرقه می‌شود، به نوعی در حال آسیب زدن به انسان‌ها از طریق اجتماع و روان جمعی است.

بدیهی است که چنین مصداق‌هایی در چارچوب سه قانون کلاسیک نمی‌گنجند. به‌همین‌دلیل است که کارشناسان اخلاقِ فناوری در سال‌های اخیر به سمت تدوین اصول تازه‌ای رفته‌اند؛ مثلاً اصل شفافیت (همان چیزی که به‌عنوان «قانون چهارم» برای ممنوعیت فریب مطرح شد) یا اصل پاسخ‌گویی که می‌گوید هر عملکرد هوش مصنوعی باید به یک نهاد انسانی پاسخگو قابل نسبت دادن باشد. این اصول مکمل و بعضاً فراتر از قوانین آسیموف هستند.

نکتۀ ظریف دیگر، مسألۀ مقیاس و کنترل جمعی است. آسیموف دنیایی را تصویر می‌کرد که در آن هر ربات توسط یک شرکت معتبر تولید می‌شود و قوانین در سطح سخت‌افزاری در مغز آن تعبیه می‌گردد. اما در دنیای واقعی امروز، فناوری هوش مصنوعی و رباتیک بسیار پراکنده و در دسترس شده است. هر فرد یا گروهی با بودجهٔ نسبتاً کم می‌تواند یک پهپاد خودران بسازد یا یک نرم‌افزار هوش مصنوعی را روی اینترنت منتشر کند. بنابراین اتکا به «قانون‌گذاری از سوی سازندگان» – چیزی که آسیموف مفروض گرفته بود – دیگر بسنده نیست. به قول برندن شولمن: «آنچه نداریم، چهارچوبی است برای اینکه در مقیاس جامعه مشخص کنیم استفادهٔ قابل قبول و غیرقابل قبول از ربات‌ها چیست.». حل این مشکل نیازمند اقداماتی در سطح حکمرانی و سیاست‌گذاری است (و شاید در آینده حتی نیاز به آموزش عمومی AIها دربارۀ قوانین انسانی باشد)، که بسیار فراتر از دامنۀ دید آسیموف در میانهٔ قرن بیستم است.

با این همه، اعتراف به این کاستی‌ها هرگز به معنای نادیده گرفتن میراث آسیموف نیست. برعکس، هر بحثی دربارهٔ «ایمنی هوش مصنوعی» یا «اخلاق رباتیک» اگر با مرور ایدۀ قوانین سه‌گانه آغاز شود، مسیر روشن‌تری خواهد داشت. آسیموف هرگز ادعا نکرد که قوانینش یک راه‌حل مهندسی کامل است؛ او بیش از هر چیز می‌خواست نشان دهد اصل مسئولیت‌پذیری در طراحی ربات‌ها چقدر حیاتی است. پیام او این بود که نباید یک ماشین هوشمند را بدون چارچوب اخلاقی به حال خود رها کرد.

امروز، پس از گذشت بیش از ۸۰ سال، همین پیام محور اصلی تمام گفتگوهای پیرامون هوش مصنوعی شده است. ما شاید قوانین سه‌گانۀ آسیموف را عیناً در ربات‌های خانگی یا دستیارهای مجازی اجرا نکنیم، اما دغدغه‌ای که او طرح کرد – یعنی جلوگیری از آسیب فناوری به انسان – هنوز خط قرمز ماست. هر آیین‌نامهٔ اخلاقی هوش مصنوعی، هر دستورالعمل مهندسی برای «طراحی هم‌نوا با ارزش‌های انسانی» و هر بحث پارلمانی دربارهٔ مقررات رباتیک، در واقع ادای دِینی است به همان سه اصل ساده.

سخن آخر 

قوانین سه‌گانۀ رباتیک آسیموف ترکیبی شگفت‌انگیز از سادگی و ژرفا بودند که از دل یک داستان کوتاه برخواستند اما به گفتگویی جهانشمول دربارۀ آیندۀ همزیستی انسان و ماشین دامن زدند. این قوانین در طول زمان بارها تفسیر، تحسین و نقد شدند و الهام‌بخش نسل‌هایی از مخترعان و متفکران گشتند. هرچند چالش‌های پیچیدۀ دنیای مدرن نشان داده که آن اصول سه‌گانه برای راهبری اخلاقی هوش مصنوعی کافی نیستند، اما میراث آن‌ها همچنان زنده است.

جامعه هم‌اکنون به دنبال راه‌هایی برای توسعه و تکمیل ایدۀ آسیموف است – چه با افزودن قوانین جدید، چه با ترجمهٔ آن‌ها به زبان حقوق و سیاست. مهم‌تر از همه، قوانین سه‌گانۀ رباتیک آسیموف وجدان ما را نسبت به قدرت و خطرات فناوری بیدار نگه داشته است. هر ربات صنعتی که بی‌هیچ حادثه‌ای در کنار کارگران مشغول به کار است، هر خودروی خودرانی که با موفقیت عابران را تشخیص می‌دهد و ترمز می‌کند و هر الگوریتم آنلاینی که تلاش می‌کند محتوای خشونت‌آمیز را فیلتر کند – همگی به نوعی وام‌دار آن نگاه اخلاق‌محور هستند که آسیموف در میانهٔ قرن بیستم جسورانه مطرح کرد.

قوانین سه‌گانه شاید کامل نباشند، اما سرآغازی بودند بر این باور که «می‌توان و باید اخلاق را در جانِ مصنوعی دمید». این باور، امروز بیش از هر زمان دیگری، راهنمای ما در مسیر ساختن آینده‌ای است که در آن انسان و هوش مصنوعی در کنار هم پیشرفت کنند و به یکدیگر آسیبی نرسانند.


منبع خبر:
مصور
/ قوانین سه‌گانۀ رباتیک آیزاک آسیموف: از داستان‌های علمی‌تخیلی تا چالش‌های عصر هوش مصنوعی

تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی برای مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.

لینک کوتاه : https://ertebatatoresaneha.ir/?p=30127

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.