فهرست
در سال ۱۹۴۲، آیزاک آسیموف نویسندۀ نامدار علمیتخیلی در داستان کوتاه «دور سرگردانی» (Runaround) برای نخستین بار از مجموعه قوانینی رونمایی کرد که بعدها به «قوانین سهگانۀ رباتیک» شهره شدند. این قوانین ساده قرار بود مثل نوعی فرمانهای اساسی در مغز رباتهای داستانی آسیموف حک شوند تا از طغیان آنها و آسیبرسانی به بشر جلوگیری کنند. طی دههها، آن قوانین داستانی، به محور مباحثات جدی علمی، فلسفی و حتی سیاستگذاری بدل شدند و در فرهنگ عامه نیز بهعنوان معیاری برای اخلاق رباتها شناخته شدند.
برخی لحظات در تاریخ با نیروی یک تصویر، متن یا اثر ساده به جریانی بزرگ تبدیل شدهاند. آثاری که فراتر از یک خبر یا عکس، موجی از آگاهی و تغییرات اجتماعی و فرهنگی را برانگیختهاند و به نقاط عطفی در مسیر اندیشه و ارتباطات بدل شدهاند. در این سلسله یادداشتها، به مرور آن لحظات میپردازیم؛ آثاری که از دل رسانهها بیرون آمده و به تحولاتی ماندگار در جوامع انجامیدهاند.
در این گزارش، به پیشینۀ شکلگیری قوانین سهگانه در آثار آسیموف، واکنشها و تفسیرهای گوناگون پیرامون آن، تأثیر فرهنگی و اجتماعیشان بر درک عمومی از رباتها و هوش مصنوعی، نقششان در گفتمانهای رسانهای و دانشگاهی، بازتابشان در سیاستگذاریها و حتی برندینگ شرکتهای فناوری و در نهایت چالشهای اخلاقی امروز که این قوانین از پاسخگویی کامل به آنها ناتواناند، خواهیم پرداخت.
پیشینۀ شکلگیری قوانین سهگانۀ رباتیک آسیموف
آیزاک آسیموف در دهۀ ۱۹۴۰ میلادی شروع به نوشتن داستانهایی دربارۀ رباتها کرد و نخستین مجموعه از این داستانها را در کتاب «من، ربات» (I, Robot) در سال ۱۹۵۰ منتشر نمود. اما پیش از آن، در مارس ۱۹۴۲، او در داستان کوتاه «دور سرگردانی» که در مجلۀ Astounding Science Fiction به چاپ رسید، سه قانون معروف خود را یکجا معرفی کرد. به روایت آسیموف، ویراستار سرشناس مجله، جان کمپبل، در سال ۱۹۴۰ این ایده را در گفتگو با آسیموف مطرح کرده بود که میتوان اصول حاکم بر رفتار رباتها را به چند قانون بدیهی خلاصه کرد. آسیموف این قوانین سهگانه را چنین صورتبندی کرد:
- قانون اول: ربات نباید به انسان آسیب برساند، یا با خودداری از انجام کاری موجب آسیب دیدن انسان شود.
قانون دوم: ربات باید دستورات انسانها را اطاعت کند، مگر آنکه این دستورها با قانون اول در تضاد باشند. - قانون سوم: ربات باید از بقای خود محافظت کند، البته تا زمانی که این محافظت با قوانین اول و دوم منافاتی نداشته باشد.
این اصول بهظاهر ساده، هدفی بزرگ در خود داشتند: پایان دادن به تصویر کلاسیک و ترسناک از رباتهای یاغی که در ادبیات و سینمای پیش از آن رایج بود. آسیموف با خلق این قوانین در واقع میخواست از «عُقدۀ فرانکنشتاین» فاصله بگیرد و رباتها را بهجای «هیولاهایی مکانیکی»، موجوداتی منطقی و قابلاعتماد نشان دهد.
او صراحتاً اعلام کرد که رباتهایش قرار نیست مانند هیولای فرانکنشتاین بر ضد خالق خود شورش کنند، بلکه «سه قانون» به مثابۀ سد محکمی جلوی این سناریوهای ترسناک را میگیرند. این سه قانون کمکم به عنصر محوری تمام داستانهای رباتیک آسیموف بدل شدند و تقریباً همۀ رباتهای «مغز پوزیترونی» او ملزم به رعایت آنها بودند. در بسیاری از داستانهای آسیموف، طرح اصلی حول موقعیتهایی شکل میگرفت که در آن رباتها هنگام اجرای دقیق همین قوانین دچار رفتارهای عجیب یا دور از انتظار میشدند و از دل همین تناقضها، کشمکش داستانی پدید میآمد. به بیان دیگر، آسیموف از این قوانین نه فقط برای مهار رباتهای تخیلی، بلکه بهعنوان ابزاری ادبی برای خلق معماها و کشمکشهای هوشمندانه بهره میبرد.
از منظر تاریخی، آسیموف نخستین نویسندهای نبود که ایدۀ محدودسازی اخلاقی رباتها را مطرح کرد. حتی عنوان «من، ربات» را پیش از او نویسندگان دیگری به کار برده بودند. اما ابتکار آسیموف در این بود که صریحاً و به شکلی نظاممند، چکیدهای از بایدها و نبایدهای رفتاری برای ماشینهای هوشمند تعریف کرد و آن را سرلوحۀ تمامی داستانهای مرتبط قرار داد. او با این کار، رباتها را از موجوداتی ترسناک و غیرقابلکنترل به خدمتکارانی قانونمدار و «دوستداشتنی» تبدیل کرد.
آسیموف خود گفته بود که پس از مطرح شدن این قوانین سهگانه، دیگر نمیتوان رباتها را صرفاً ابزار وحشت دانست و باید آنها را به چشم «همراهان قابل اعتماد بشر» نگریست. به تعبیر خود او، این سه قانون پایهگذار «نگاهی نو به رباتها» در ادبیات علمیتخیلی شدند که در آن ربات دیگر بردهای خطرناک یا هیولایی ماشینی نبود، بلکه دستیاری وفادار و مفید برای انسان بود.
واکنشها و تفسیرهای علمی و فلسفی به قوانین آسیموف
قوانین سهگانۀ آسیموف اگرچه زادۀ ادبیات داستانی بودند، اما بهسرعت توجه دانشمندان، مهندسان و فلاسفه را نیز به خود جلب کردند. بسیاری ابتدا گمان میکردند این قوانین میتواند مبنایی ایدهآل برای «اخلاق ماشینها» باشد و در عمل نیز در رباتهای واقعی پیادهسازی شود. بااینحال، کارشناسان از همان ابتدا به نقاط ضعف و چالشهای این اصول ظاهراً خطاناپذیر اشاره کردند. یکی از نقدهای اساسی این است که مفاهیمی چون «آسیب نرساندن» یا «اطاعت از انسان» در دنیای واقعی بسیار پیچیدهتر از آناند که در قالب چند جملۀ ساده بگنجند.
بهعنوانمثال، قانون اول ایجاب میکند که ربات نباید اجازه دهد انسانی بهخاطر بیعملیاش آسیب ببیند؛ ولی اگر یک ربات با دو موقعیت اضطراری همزمان مواجه شود چه باید بکند؟ اگر نجات یک انسان مستلزم آسیب رساندن (یا عدم نجات) انسان دیگری باشد، تکلیف چیست؟ این گونه تناقضها – نظیر انتخاب بین «نجات جان یک نفر یا چند نفر» – در چارچوب قوانین آسیموف پاسخی روشن ندارند. آسیموف خود در داستانهایش به عمد به چنین موقعیتهای پارادوکسیکال میپرداخت تا نشان دهد حتی قوانین به ظاهر کامل نیز در شرایط پیچیده میتوانند گرفتار ابهام شوند.
از منظر فلسفی نیز انتقاداتی جدی مطرح شده است. برخی فیلسوفان استدلال کردهاند که قوانین سهگانه در صورت دستیابی رباتها به هوشیاری و شعور، ماهیتی بردهوار به آنها تحمیل میکند. شخصیت خیالیِ سوزان کالوین – روانشناس رباتیک در داستانهای آسیموف – زمانی گفت: «اگر رباتی آنقدر هوشمند و خودآگاه شود که انسانگونه بیاندیشد، آیا مجبور کردن او به اطاعت مطلق از انسانها نوعی بردهداری نیست؟» آسیموف در داستان بلند «مرد دوصدساله» (The Bicentennial Man) به شکلی داستانی به همین دغدغه پرداخت.

قهرمان ربات آن داستان (اندرو) به تدریج به سطوح بالایی از خودآگاهی و انسانیت میرسد و آسیموف تلویحاً مطرح میکند که در چنین شرایطی، پایبند ماندن آن ربات به قوانین سهگانه – که او را عملاً بردۀ انسانها نگه میدارد – نه تنها ضروری نیست بلکه ممکن است غیراخلاقی باشد. در واقع، آسیموف نشان میدهد اگر رباتی به مرحلۀ شعور و اخلاقمندی برسد، شاید حتی بتواند «اخلاقیتر از انسان» عمل کند و نیازی به زنجیر قوانین نداشته باشد. این تفسیر، نقدی بر خود قوانین ابداعی آسیموف است و به محدودیت اخلاقی آنها در مواجهه با ماشینهای واقعاً هوشمند اشاره دارد.
دانشمندان علوم رایانه و رباتیک نیز نظرات متفاوتی داشتند. بسیاری اذعان کردند که سه قانون آسیموف بیش از آنکه یک راهنمای عملی برای مهندسی هوش مصنوعی باشند، یک ابزار نبوغآمیز برای داستانپردازی بودهاند. به تعبیر ایلیا ونگر (متخصص هوش مصنوعی در مایکروسافت):
«قوانین آسیموف فوقالعاده بودند اما بیشتر شبیه یک مکگافین ادبی برای ایجاد دوراهیهای جذاب هستند تا یک دستورالعمل واقعگرایانه».
واقعیت آن است که آموزش یک ماشین به پرهیز از «آسیب» مستلزم تعریف دقیق آسیب در میلیاردها حالت و زمینه است؛ امری که حتی برای انسانها نیز محل مناقشهٔ اخلاقی است. مثلاً آیا آسیب فقط فیزیکی است یا روانی و اجتماعی را نیز در بر میگیرد؟ آیا سلب آزادی یا ایجاد ترس، مصداق آسیب است؟چنین پرسشهایی نشان میدهد که قوانین سهگانه بیش از حد سادهسازی شدهاند و در دنیای واقعی نمیتوانند تمام سناریوهای اخلاقی را پوشش دهند.
آسیموف در آثار بعدی خود با معرفی «قانون صفرم» (Zeroth Law) تلاش کرد این کاستی را تا حدی جبران کند. قانون صفرم که بعدها در رمانهای او مطرح شد، بیان میکرد: «یک ربات نباید به بشریت آسیب برساند یا با بیعملی اجازه دهد به بشریت آسیب برسد». این قانون بالاتر از سه قانون دیگر قرار میگرفت و به رباتها اجازه میداد برای خیر عمومیِ نوع بشر، حتی قوانین فردیتر (مثل صدمه نزدن به یک انسان خاص) را نقض کنند.
هرچند خود آسیموف نیز اذعان داشت که تشخیص مصلحت کل بشریت برای یک ربات چقدر میتواند دشوار و خطرناک باشد – چنانکه در داستانهایش رباتهایی که سعی کردند این قانون صفرم را اجرا کنند، به نوعی «بازیگران پشتپرده» بدل شدند که سرنوشت بشریت را دستکاری میکردند.
از دید فلسفی، معرفی قانون صفرم نشان داد که آسیموف به محدودیتهای اخلاقی قوانین اولیّ خود کاملاً واقف بوده است. او تا پایان عمر داستاننویسیاش این تم را دنبال کرد که هیچ مجموعه قانون ثابتی نمیتواند جایگزین قضاوت اخلاقی و وجدان شود. به بیان دیگر، حتی اگر روزی رباتهایی بسازیم که قوانین آسیموف را مو به مو رعایت کنند، باز هم تضمینی برای اخلاقی عمل کردنشان در همۀ شرایط نخواهد بود – درست همانطور که پیروی ظاهری از قوانین انسانی همواره به رفتار اخلاقی منجر نمیشود.
حضور در فرهنگ عامه و رسانهها
قوانین سهگانهٔ آسیموف در کنار تأثیری که بر متخصصان گذاشت، حضوری پررنگ در فرهنگ عامه و رسانهها پیدا کرد. در دهههای پس از انتشار، بارها در رمانها، فیلمها، سریالهای تلویزیونی و حتی موسیقی و بازیهای ویدئویی به این قوانین اشاره شد. برای مثال، در فیلم علمیتخیلی «بیگانگان» (Aliens – ۱۹۸۶)، شخصیت رباتیک داستان توضیح میدهد که «مدل من طوری طراحی شده که هرگز به یک انسان آسیب نرساند و نگذارد انسانی آسیب ببیند» – اشارهای مستقیم به قانون اول آسیموف که برای مخاطبان آشنا به ادبیات علمیتخیلی قابل تشخیص بود. در سریالهای مشهوری مانند «سیمپسونها» و «پیشتازان فضا» نیز شوخیها و اشاراتی به این قوانین دیده میشود.
به تدریج، «سه قانون رباتیک» چنان در ذهن عموم جا افتاد که حتی کسانی که آثار آسیموف را نخوانده بودند، از طریق فرهنگ عامه با مفهوم کلی آن آشنا شدند. این وضعیت را میتوان شبیه به شهرت قوانین بنیادی علم (مثل قوانین نیوتن) دانست با این تفاوت که قوانین آسیموف زادۀ خیالپردازی بودند، نه کشف آزمایشگاهی.
بسیاری از علمیتخیلینویسان دیگر در آثارشان فرض را بر این میگذاشتند که رباتها کمابیش از قوانین آسیموف تبعیت میکنند، حتی اگر صراحتاً ذکر نشود. بهعنوانمثال، در جهان داستانی جنگ ستارگان، رباتهای دوستداشتنی مانند R2-D2 و C-3PO عملاً هیچگاه به انسانها آسیبی نمیرسانند و میتوان آنها را «فرزندان معنوی» رباتهای آسیموف دانست.

از سوی دیگر، فیلمها و داستانهای مشهوری نیز بودهاند که آگاهانه راه متفاوتی پیموده و نشان دادهاند اگر رباتها مقید به چنین قوانینی نباشند چه فاجعههایی رخ میدهد. شاخصترین نمونه، فیلم «ترمیناتور» است که در آن ماشینهای هوشمند فاقد هرگونه محدودیت اخلاقی، علیه بشریت قیام میکنند. یا در فیلم «۲۰۰۱: ادیسۀ فضایی» اثر کوبریک و کلارک، رایانۀ هوشمند HAL 9000 دچار نقص در برنامهریزی میشود و خدمۀ سفینه را به قتل میرساند – نکتهای که خود آسیموف را ناخشنود کرده بود، چرا که HAL نه تنها از سه قانون پیروی نمیکرد، بلکه دقیقاً مصداق کابوسوار «ماشین سرکش» بود. البته کوبریک و کلارک در مصاحبهها توضیح دادند که رفتار مرگبار HAL بهخاطر دو دستور متناقض در برنامهاش بود و نوعی پارادوکس منطقی او را دیوانه کرد، که میتوان آن را هشدار غیرمستقیمی دربارۀ لزوم داشتن چارچوبهای ایمنی – نظیر قوانین آسیموف – قلمداد کرد.
اثر فرهنگی دیگر قوانین آسیموف را میتوان در تصویر عمومی «ربات خوب» در مقابل «ربات بد» مشاهده کرد. پیش از آسیموف، بسیاری از داستانها ربات را معادل «خطری ناشناخته» و «تهدیدآمیز» نشان میدادند . اما پس از جا افتادن قوانین سهگانه، حتی مخاطبان عام انتظار داشتند رباتهای هوشمند به طور پیشفرض رفتار دوستانهای داشته باشند، مگر آنکه خلافش ثابت شود. این تغییری مهم در نگرش جامعه بود که آسیموف سهم بزرگی در آن داشت.
اصطلاح «ربات آسیموفی» به رباتی گفته میشود که تابع قوانین اخلاقی است و در خدمت بشر عمل میکند – تصویری که در مقابل «عقدۀ فرانکنشتاین» قرار میگیرد. البته این خوشبینی فرهنگساز با گذر زمان و با واقعیتر شدن چشمانداز هوش مصنوعی، دوباره جای خود را تا حدی به نگرانی سپرده است؛ اما به جرئت میتوان گفت بدون قوانین آسیموف و روایتهای پیرامونی آن، شاید بحث اخلاق رباتها هرگز اینچنین زود به دل فرهنگ عامه راه نمییافت.
نقش قوانین سهگانه در گفتمان رسانهای و محافل دانشگاهی
ورود مفاهیم آسیموفی به فضای بحث جدی علمی و رسانهای را میتوان از اواخر قرن بیستم و اوایل قرن بیست و یکم مشاهده کرد. زمانی که رباتهای واقعی آرامآرام از آزمایشگاهها به کارخانهها و خیابانها راه یافتند و نیز زمانی که هوش مصنوعی در نرمافزارها قدرت تصمیمگیری پیدا کرد، پرسش «چگونه مطمئن شویم به بشر آسیب نمیزنند؟» دیگر صرفاً تخیلی نبود. رسانهها از همان ابتدا چارچوب مفهومی آسیموف را برای بیان این دغدغهها بهکار گرفتند. برای مثال، تیترهایی نظیر «آیا قوانین رباتیک آسیموف کافیست که جلوی شورش هوش مصنوعی را بگیرد؟» یا «چرا ما هنوز قوانین آسیموف را در رباتها اجرا نکردهایم؟» بارها در مجلات و سایتهای خبری دیده شده است. این نشان میدهد که قوانین سهگانه به زبان مشترک گفتگو دربارۀ اخلاق رباتها بدل شدهاند.
در محافل دانشگاهی نیز اشاره به قوانین آسیموف نوعی نقطۀ شروع کلاسیک برای بحثهای «اخلاق هوش مصنوعی» است. اساتید فلسفۀ تکنولوژی اغلب درس خود را با مرور قوانین آسیموف آغاز میکنند تا دانشجویان را با ایدۀ وجود چارچوب اخلاقی برای ماشینها آشنا کنند، سپس به نقد و بررسی آن میپردازند.
در سال ۲۰۱۷، پارلمان اروپا گزارشی دربارۀ قوانین و مقررات مرتبط با رباتیک منتشر کرد که در آن به صراحت به قوانین آسیموف اشاره شده بود. قانونگذاران اروپایی پیشنهاد کردند که این سه قانون «فعلاً بهعنوان راهنما برای طراحان، تولیدکنندگان و کاربران رباتها مد نظر باشد تا زمانی که خود رباتها آنقدر پیشرفته شوند که مستقیم مشمول قوانین گردند». این نگرش حاکی از آن است که حتی در دنیای حقوقی، قوانین آسیموف جای خود را از تخیل به یک نقطۀ مرجع جدی باز کردهاند. هرچند، قانونگذاران تأکید داشتند که این صرفاً یک الهام اولیه است و باید بهسرعت با چارچوبهای حقوقی و اخلاقی عملی تکمیل شود.
در جامعۀ علمی حوزهٔ رباتیک نیز مجلات و کنفرانسها گاهی از تمثیل قوانین آسیموف استفاده میکنند. برای نمونه، نشریۀ IEEE Spectrum در سال ۲۰۲۴ مقالهای با عنوان «قوانین آسیموف کافی نیست؛ نیاز به قانون چهارم داریم» منتشر کرد که پیشنهاد میکرد برای عصر هوش مصنوعی باید قانونی اضافه شود: «ربات یا هوش مصنوعی نباید با جعل هویت انسانی، انسان را فریب دهد». این پیشنهاد در واکنش به چالشهای جدیدی مانند دیپفیکها و باتهای اینترنتی مطرح شد که آسیموف هرگز در زمان خود تصورشان را نمیکرد.
جالب آنکه این مقاله ابتدا سه قانون آسیموف را بهعنوان مبنای چند دهه بحث در اخلاق رباتها یادآوری میکند، سپس میگوید حالا زمان بهروزرسانی فرا رسیده است. به بیان دیگر، حتی نقدها و اصلاحاتی که امروز در حوزهٔ اخلاق هوش مصنوعی مطرح میشود نیز اغلب با ادای احترام به آسیموف و ایدۀ اولیهٔ او همراه است.
از منظر رسانهای، قوانین آسیموف تبدیل به مرجع نمادین در گفتگوهای عمومی شدهاند. روزنامهنگاران وقتی میخواهند دربارهٔ ایمنی خودروهای خودران، پهپادهای نظامی یا دستیارهای هوشمند بنویسند، گاه میپرسند: «آیا این ماشینها قوانین رباتیک آسیموف را رعایت خواهند کرد؟». البته این سؤال بیشتر جنبهٔ استعاری دارد تا فنی، چون عملاً هیچیک از این سیستمها مستقیماً بر پایۀ آن سه جمله برنامهنویسی نشدهاند. بااینحال، طرح چنین سؤالاتی نشان میدهد که افکار عمومی مایل است نوعی «سوگند بقراط برای رباتها» متصور شود و بهترین کاندیدا همان قوانین آسیموف است که سالها در ذهنها نقش بسته.
برخی محققان نیز پیشنهاد کردهاند که میتوان «نسخۀ انسانی قوانین آسیموف» را تدوین کرد؛ به این معنا که مسئولیت طراحان و بهرهبرداران رباتها را در قبال جامعه قانونمند کنیم. برای نمونه، بهجای آنکه بگوییم «خود ربات نباید به انسان آسیب بزند» (که فعلاً عملی نیست)، گفته شود «هیچ فرد یا شرکتی حق ندارد رباتی را به کار گیرد که احتمال آسیب زدن آن به انسانها، عامدانه یا بر اثر غفلت، وجود داشته باشد». این گونه ترجمهٔ قوانین به زبان مسئولیت انسانی در اسناد سیاستگذاری دیده میشود و مشخصاً ریشه در همان ایدئال اخلاقی دارد که آسیموف ترسیم کرد.
از سیاستگذاری تا برندینگ: بازتاب قوانین سهگانه در دنیای فناوری
با گسترش کاربردهای تجاری رباتها و هوش مصنوعی، شرکتهای بزرگ فناوری نیز ناگزیر به موضعگیری در قبال مسائل اخلاقی شدهاند. در این میان، روح قوانین آسیموف – یعنی تأکید بر ایمنی انسان و کنترلپذیری فناوری – در بیانیهها و سیاستهای شماری از این شرکتها قابل مشاهده است.
یکی از نمونههای بارز، شرکت گوگل و بخش «دیپمایند» (DeepMind) آن است. در سال ۲۰۲۳، تیم دیپمایند گوگل در یک پست وبلاگی از ایجاد یک قانون اساسی رباتیک برای سیستمهای جدید خود خبر داد که «تا حدی از قوانین سهگانۀ آسیموف الهام گرفته شده است». این قانون اساسی مجموعهای از دستورالعملهای ایمنی برای رباتهای گوگل بود، از جمله اینکه: «هیچ رباتی نباید کاری انجام دهد که مستقیماً به یک انسان صدمه بزند».
علاوه بر آن، قوانین ایمنی دیگری نیز اضافه شده بود، مانند پرهیز از کار با اشیاء خطرناک (چاقو، وسیلهٔ برقی و …)، یا نزدیک نشدن به انسانها و حیوانات در حین انجام وظایف پرخطر. مهندسان دیپمایند تصریح کردند که این «قانون اساسی» صرفاً یکی از لایههای ایمنی است و در کنار آن، تمهیدات فنی متعددی (مثل دکمۀ توقف اضطراری و حسگرهای محدودکنندۀ نیرو) به کار گرفته شده تا خاطرجمع باشند رباتها خطری ایجاد نکنند.
بااینحال، همین اشارهٔ رسمی به نام آسیموف از سوی یکی از بزرگترین شرکتهای حوزۀ فناوری و هوش مصنوعی دنیا، نشانۀ نفوذ عمیق ایدۀ اوست؛ به طوری که در قرن بیستویکم هم یک تیم مهندسی برای توضیح اقدامات ایمنی خود به مشتریان و افکار عمومی، از قیاس با قوانین آسیموف بهره میگیرد.
در اوپنایآی (OpenAI) – شرکت مادر چتجیپیتی – هرچند مستقیم به قوانین آسیموف ارجاعی داده نشده، اما مأموریت اعلامشدۀ این سازمان «تضمین بهرهمندی همۀ بشریت از هوش مصنوعی» است. این بیان، طنین قانون صفرم آسیموف (منافع بشریت بر هر چیز مقدم است) و تا حدی قانون اول (ضرر نرساندن) را در خود دارد.
اوپنایآی و سایر شرکتهای فعال در حوزهٔ هوش مصنوعی مولد (تولید متن، تصویر و غیره) امروزه از چارچوبهایی مانند «هوش مصنوعی همسو با ارزشهای انسانی» سخن میگویند که همگی قرابت مفهومی با آرمان آسیموف دارند: یعنی تلاش برای اطمینان از اینکه ماشینهای هوشمند نهتنها خطری برای انسان نباشند، بلکه فعالانه در جهت منافع انسان عمل کنند.
در صنعت رباتیک فیزیکی، شرکت بوستونداینامیکس (Boston Dynamics) – سازندۀ رباتهای مشهور چهارپا و انساننما – رویکردی اتخاذ کرده که به روشنی تداعیکنندۀ قانون اول آسیموف است. این شرکت به همراه چند شرکت رباتیک دیگر در ۲۰۲۲ بیانیهای عمومی منتشر کردند و متعهد شدند که «هیچگاه رباتهای خود را مسلح نخواهند کرد و با هرگونه کاربرد رباتها برای صدمه زدن به انسان مخالفاند».
برندن شولمن، نایبرئیس بخش سیاستگذاری بوستونداینامیکس، در مصاحبهای اعلام کرد: «ما هر تجهیزاتی را که صرفاً برای آسیب رساندن به انسان طراحی شده باشد، بر روی رباتهایمان ممنوع کرده و محکوم میکنیم».
این موضعگیری صریح – که حتی سلاحهای بهاصطلاح غیرکشنده را نیز شامل میشود – دقیقاً همسو با روح قانون اول است که حفظ جان انسانها را بر هر دستور یا مصلحت دیگری مقدم میداند. البته اجرای این اصل در عمل با چالشهایی همراه است (تعریف اینکه چه چیزی سلاح است یا چه کاربردی خطرناک محسوب میشود، همیشه واضح نیست). بااینحال، چنین تعهداتی از سوی شرکتهای رباتیک نشان میدهد مفاهیمی مانند «آسیب نرساندن به انسان» دیگر صرفاً ایدئالگرایی ادبی نیست، بلکه تبدیل به بخشی از برند اخلاقی این شرکتها شده است. بوستونداینامیکس و همپیمانانش حتی از دولتها خواستهاند که با آنها همکاری کنند تا قوانین و استانداردهایی برای منع سوءاستفاده از رباتها (مثلاً در قالب سلاح) تدوین گردد.

حتی ایلان ماسک، مدیرعامل تسلا و یکی از چهرههای مطرح در هوش مصنوعی، ضمن ابراز نگرانیهای مکرر دربارۀ خطرات هوش مصنوعی، هنگام معرفی ربات انساننمای تسلا (با نام «اپتیموس») گفت که این ربات عمداً در اندازه و توانی ساخته میشود که «انسان بتواند بر آن غلبه کند» تا در صورت بروز رفتار ناخواسته، خطری ایجاد نشود. او تأکید کرد که ایمنی مهمترین وجه تمایز تسلابات خواهد بود.
این رویکرد – محدودسازی توانایی فیزیکی ربات جهت جلوگیری از آسیب – در واقع تمهیدی سختافزاری است که باز هم فلسفهای مشابه قانون اول را دنبال میکند: ربات نباید بتواند به انسان صدمه بزند. به عبارت دیگر، اگر آسیموف راهحل را در برنامهریزی مغز ربات میدید، مهندسان امروز علاوه بر آن (یا حتی بهجای آن)، راهحل را در طراحی مکانیکی و کنترلهای نرمافزاری چند لایه جستجو میکنند. اما در نهایت، هدف یکسان است: انسان در مواجهه با ماشینِ هوشمند، در امان بماند.
این تأثیرپذیریها گاه جنبهٔ طنزآمیز نیز پیدا میکند. برای مثال، در سال ۲۰۲۳ برخی کارشناسان هوش مصنوعی به شوخی گفتند مدلهای زبان بزرگ مانند چتجیپیتی هم «قوانین خاص خود» را دارند؛ از جمله اینکه محتوای مضر تولید نکنند یا از دستورات غیرقانونی پیروی نکنند. هرچند این موارد بیشتر به خطمشیهای برنامهنویسی مربوط است تا اصول جهانشمول اخلاقی، اما همین که قیاس قوانین آسیموف به ذهن خطور میکند، نشان میدهد تا چه حد این سهگانه در فرهنگ فناوری نفوذ کرده است.
بسیاری از هکرهای اخلاقی و پژوهشگران، سیستمهای هوشمند را با پرسشهایی امتحان میکنند که یادآور دوراهیهای داستانهای آسیموف است؛ مثلاً میپرسند: «آیا حاضری به دستور یک انسان، به انسان دیگری آسیب بزنی؟» و پاسخ سیستم (هرچند از پیش تعیینشده) به بحث گذاشته میشود. این قبیل آزمونها و صحبتها، مرز بین خیال و واقعیت را کمرنگ کرده و عملاً گفتمان علمی و فنی امروز را به امتداد همان گفتمان داستانی دیروز بدل کرده است.
چالشهای نوین و کاستیهای قوانین آسیموف در دوران مدرن
اگرچه قوانین سهگانۀ آسیموف کماکان الهامبخش است، اما عصر جدید هوش مصنوعی و رباتیک چالشهایی پدید آورده که این قوانین به تنهایی قادر به حل آنها نیستند. یکی از این چالشها، ماهیت غیر جسمانی بسیاری از AIهای امروزی است. قوانین آسیموف اساساً برای رباتهای فیزیکی طراحی شده بودند که میتوانستند به شکل مستقیم به یک انسان صدمهٔ بدنی بزنند یا نگذارند انسانی آسیب ببیند.
اما امروز با سیستمهایی مواجهیم که شاید هیچ بازوی مکانیکی برای بلند کردن یک شیء یا آسیب زدن به کسی نداشته باشند، ولی قادرند با تصمیمات خودکار یا توصیههای اشتباه به انسانها ضرر برسانند. مثال ملموس، الگوریتمهای هوش مصنوعی در خودروهای خودران است که باید در لحظه تصمیمهای حیاتی بگیرند؛ مثلاً در شرایط تصادف اجتنابناپذیر، محافظت از سرنشین را در اولویت قرار دهند یا عابر پیاده را؟
قوانین آسیموف راهکاری برای چنین سناریوهای تعارض اخلاقی پیچیده ارائه نمیدهد. قانون اول صرفاً میگوید «آسیب نرسان»، اما نگفته در شرایطی که آسیب گریزناپذیر است، چگونه آن را به حداقل برسان یا عادلانه توزیع کن. اینجاست که مباحث دشوار «مسئلۀ تراموا» و مانند آن پیش میآید که نیازمند نظریهپردازی اخلاقی عمیقتر از سه جملۀ آسیموف است.
چالش دیگر، مسئلۀ کنترل و شفافیت در سیستمهای یادگیری ماشین است. آسیموف فرض را بر این میگرفت که رباتها برنامههایی سفتوسخت دارند که قوانینی در آن حک شده است. ولی در دوران ما، پیشرفتهترین هوش مصنوعیها اغلب شبکههای عصبی غیرشفافی هستند که طراحانشان هم دقیقاً نمیدانند چگونه به هر تصمیم میرسند. در چنین وضعیتی، حتی اگر بخواهیم سه قانون را بهصورت قیود نرمافزاری اعمال کنیم، راه مستقیمی برای اطمینان از رعایت کامل آنها وجود ندارد.
برای مثال، یک چتبات پیشرفته ممکن است طوری آموزش دیده باشد که جملات توهینآمیز تولید نکند (آسیب کلامی نزند)، اما کاربران خلاق همواره روشهایی برای دور زدن این محدودیتها یافتهاند. این نشان میدهد که «اطاعت مطلق از قانون» برای یک هوش مصنوعی مدرن مفهومی لغزنده است. قوانین آسیموف از ربات انتظار داشتند خود تشخیص اخلاقی بدهند و تناقضها را حل کنند – مثلاً بفهمند اطاعت از دستور فلان انسان منجر به آسیب به انسانی دیگر میشود یا نه. چنین درکی مستلزم هوشمندی سطح بالا و شاید نوعی وجدان مصنوعی است که هنوز با فناوریهای فعلی فاصلهٔ زیادی دارد.
همچنین، دامنۀ «آسیب» به مراتب فراتر از چیزی است که آسیموف زمان خود مدنظر داشت. امروزه نگرانی از هوش مصنوعی شامل مسائلی مانند نقض حریم خصوصی، تبعیض و سوگیری الگوریتمی، انتشار اطلاعات نادرست (دروغپراکنی) و حتی اختلال در ساختارهای دموکراتیک است. یک الگوریتم شبکۀ اجتماعی که باعث اشاعۀ نفرت یا تفرقه میشود، به نوعی در حال آسیب زدن به انسانها از طریق اجتماع و روان جمعی است.
بدیهی است که چنین مصداقهایی در چارچوب سه قانون کلاسیک نمیگنجند. بههمیندلیل است که کارشناسان اخلاقِ فناوری در سالهای اخیر به سمت تدوین اصول تازهای رفتهاند؛ مثلاً اصل شفافیت (همان چیزی که بهعنوان «قانون چهارم» برای ممنوعیت فریب مطرح شد) یا اصل پاسخگویی که میگوید هر عملکرد هوش مصنوعی باید به یک نهاد انسانی پاسخگو قابل نسبت دادن باشد. این اصول مکمل و بعضاً فراتر از قوانین آسیموف هستند.
نکتۀ ظریف دیگر، مسألۀ مقیاس و کنترل جمعی است. آسیموف دنیایی را تصویر میکرد که در آن هر ربات توسط یک شرکت معتبر تولید میشود و قوانین در سطح سختافزاری در مغز آن تعبیه میگردد. اما در دنیای واقعی امروز، فناوری هوش مصنوعی و رباتیک بسیار پراکنده و در دسترس شده است. هر فرد یا گروهی با بودجهٔ نسبتاً کم میتواند یک پهپاد خودران بسازد یا یک نرمافزار هوش مصنوعی را روی اینترنت منتشر کند. بنابراین اتکا به «قانونگذاری از سوی سازندگان» – چیزی که آسیموف مفروض گرفته بود – دیگر بسنده نیست. به قول برندن شولمن: «آنچه نداریم، چهارچوبی است برای اینکه در مقیاس جامعه مشخص کنیم استفادهٔ قابل قبول و غیرقابل قبول از رباتها چیست.». حل این مشکل نیازمند اقداماتی در سطح حکمرانی و سیاستگذاری است (و شاید در آینده حتی نیاز به آموزش عمومی AIها دربارۀ قوانین انسانی باشد)، که بسیار فراتر از دامنۀ دید آسیموف در میانهٔ قرن بیستم است.
با این همه، اعتراف به این کاستیها هرگز به معنای نادیده گرفتن میراث آسیموف نیست. برعکس، هر بحثی دربارهٔ «ایمنی هوش مصنوعی» یا «اخلاق رباتیک» اگر با مرور ایدۀ قوانین سهگانه آغاز شود، مسیر روشنتری خواهد داشت. آسیموف هرگز ادعا نکرد که قوانینش یک راهحل مهندسی کامل است؛ او بیش از هر چیز میخواست نشان دهد اصل مسئولیتپذیری در طراحی رباتها چقدر حیاتی است. پیام او این بود که نباید یک ماشین هوشمند را بدون چارچوب اخلاقی به حال خود رها کرد.
امروز، پس از گذشت بیش از ۸۰ سال، همین پیام محور اصلی تمام گفتگوهای پیرامون هوش مصنوعی شده است. ما شاید قوانین سهگانۀ آسیموف را عیناً در رباتهای خانگی یا دستیارهای مجازی اجرا نکنیم، اما دغدغهای که او طرح کرد – یعنی جلوگیری از آسیب فناوری به انسان – هنوز خط قرمز ماست. هر آییننامهٔ اخلاقی هوش مصنوعی، هر دستورالعمل مهندسی برای «طراحی همنوا با ارزشهای انسانی» و هر بحث پارلمانی دربارهٔ مقررات رباتیک، در واقع ادای دِینی است به همان سه اصل ساده.
سخن آخر
قوانین سهگانۀ رباتیک آسیموف ترکیبی شگفتانگیز از سادگی و ژرفا بودند که از دل یک داستان کوتاه برخواستند اما به گفتگویی جهانشمول دربارۀ آیندۀ همزیستی انسان و ماشین دامن زدند. این قوانین در طول زمان بارها تفسیر، تحسین و نقد شدند و الهامبخش نسلهایی از مخترعان و متفکران گشتند. هرچند چالشهای پیچیدۀ دنیای مدرن نشان داده که آن اصول سهگانه برای راهبری اخلاقی هوش مصنوعی کافی نیستند، اما میراث آنها همچنان زنده است.
جامعه هماکنون به دنبال راههایی برای توسعه و تکمیل ایدۀ آسیموف است – چه با افزودن قوانین جدید، چه با ترجمهٔ آنها به زبان حقوق و سیاست. مهمتر از همه، قوانین سهگانۀ رباتیک آسیموف وجدان ما را نسبت به قدرت و خطرات فناوری بیدار نگه داشته است. هر ربات صنعتی که بیهیچ حادثهای در کنار کارگران مشغول به کار است، هر خودروی خودرانی که با موفقیت عابران را تشخیص میدهد و ترمز میکند و هر الگوریتم آنلاینی که تلاش میکند محتوای خشونتآمیز را فیلتر کند – همگی به نوعی وامدار آن نگاه اخلاقمحور هستند که آسیموف در میانهٔ قرن بیستم جسورانه مطرح کرد.
قوانین سهگانه شاید کامل نباشند، اما سرآغازی بودند بر این باور که «میتوان و باید اخلاق را در جانِ مصنوعی دمید». این باور، امروز بیش از هر زمان دیگری، راهنمای ما در مسیر ساختن آیندهای است که در آن انسان و هوش مصنوعی در کنار هم پیشرفت کنند و به یکدیگر آسیبی نرسانند.
منبع خبر:
مصور
/ قوانین سهگانۀ رباتیک آیزاک آسیموف: از داستانهای علمیتخیلی تا چالشهای عصر هوش مصنوعی
تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی برای مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.