تحریریۀ بیبیسی هوش مصنوعی را فرصتی برای نوآوری و خلاقیت در تولید و توزیع محتوا میداند، اما درعینحال به چالشهای مهم این فناوری نیز توجه دارد. این سازمان با تدوین دستورالعملهای دقیق، استفاده از هوش مصنوعی را در راستای ارزشهای تحریریهای خود قرار داده و شفافیت و نظارت انسانی را در تمامی مراحل الزامی میداند. راهنمای بیبیسی بهعنوان یک سند راهبردی، الزامات اخلاقی و حرفهای استفاده از هوش مصنوعی را برای تولیدکنندگان و مخاطبان روشن میکند.
در ادامه، ترجمۀ کامل این دستورالعمل ارائه شده است و در انتهای مطلب نیز نسخۀ پیدیاف آن برای دانلود در دسترس قرار دارد.
۱. مقدمه
تکامل هوش مصنوعی در تمامی اشکال خود فرصتهای عظیمی برای خلاقیت، نوآوری و افزایش بهرهوری در همۀ حوزههای فعالیت بیبیسی فراهم میکند.
بااینحال، هوش مصنوعی میتواند ریسکهای قابلتوجهی نیز به همراه داشته باشد. در هر جایی که از هر نوع هوش مصنوعی – چه هوش مصنوعی مولد و چه بهطور کلیتر – برای خلق، ارائه یا توزیع محتوا استفاده میشود، باید با دستورالعملهای تحریریۀ بیبیسی و ارزشهای تحریریۀ آن هماهنگ باشد.
سرعت تغییرات در حوزۀ هوش مصنوعی، گسترۀ کاربردهای آن و احتمال عدم وجود نظارتِ انسانیِ جدّی، چالشهای مهمی را برای استفادۀ بیبیسی از این فناوری و نحوۀ مدیریت توسعۀ آیندۀ آن ایجاد میکند.
بیبیسی به صراحت اعلام کرده است که استفاده از هوش مصنوعی در این سازمان همیشه در راستای ارزشهای خدمات عمومی خواهد بود. این سازمان به استعدادها و خلاقیتها اولویت میدهد و شفافیت و پاسخگویی را در استفاده از این فناوری رعایت میکند.
استفاده از هوش مصنوعی در بیبیسی باید:
- هرگز اعتماد مخاطبان را تضعیف نکند.
- همیشه با شفافیت و پاسخگویی و با نظارت آگاهانه و مؤثر انسانی همراه باشد.
- همیشه در راستای ارزشهای تحریریۀ بیبیسی، بهویژه دقت، بیطرفی، انصاف و حفظ حریم خصوصی باشد.
این راهنما بهمنظور توضیح نحوۀ استفاده از هوش مصنوعی توسط بیبیسی و تمامی افرادی که محتوا به این سازمان ارائه میدهند، در راستای دستورالعملها و ارزشهای تحریریۀ بیبیسی تدوین شده است.
این راهنما مشاورههایی دربارۀ زمان، مکان و نحوۀ دریافت راهنمایی بیشتر در هر مرحله از استفادۀ تحریریهای از هوش مصنوعی ارائه میدهد.
کارکنان و فریلنسرهای بیبیسی باید این راهنما را در کنار «کتابچۀ راهنمای هوش مصنوعی بیبیسی: چگونه از هوش مصنوعی بهطور مسئولانه استفاده کنیم» مطالعه کنند که در آن موضوعات غیرتحریریهای کلیدی و فرایندهایی که همۀ کاربران هوش مصنوعی باید رعایت کنند، توضیح داده شده است.
با تغییر تجربه، تخصص و فناوری، این راهنما بهطور منظم بهروزرسانی خواهد شد.
۲. هوش مصنوعی چیست؟
هوش مصنوعی را میتوان بهعنوان یک سیستم مبتنی بر ماشین تعریف کرد که قادر به انجام وظایفی است که معمولاً با هوش انسانی مرتبط هستند، از جمله تولید محتوا، پیشبینیها و/یا تصمیمگیریها.
هوش مصنوعی مولد را میتوان بهعنوان نوعی از هوش مصنوعی تعریف کرد که توانایی ایجاد متن، تصاویر، گفتار، موسیقی، ویدئو و کد را در پاسخ به درخواستهای یک کاربر دارد.
۳. مسائل تحریریه در استفاده از هوش مصنوعی
هر زمان که استفاده از هوش مصنوعی پیشنهاد میشود، تولیدکنندگان محتوا، مدیران محتوا یا تیمهای محصول باید ابتدا بررسی کنند که آیا استفاده از هوش مصنوعی، هم از لحاظ اصول کلی و هم از لحاظ ابزار یا محصول خاص پیشنهادی، برای وظیفۀ موردنظر مناسب است یا خیر.
همچنین باید توجه داشته باشند که هوش مصنوعی ممکن است در ابزارهای ارائهشده توسط تأمینکنندگان خارجی یا ابزارهای عمومی موجود در اینترنت نیز ادغام شده باشد.
هرگونه استفاده از هوش مصنوعی توسط بیبیسی در تولید، ارائه یا توزیع محتوا باید با دستورالعملهای تحریریه هماهنگ باشد، از جمله اصول بیطرفی، دقت، انصاف و حفظ حریم خصوصی.
هرگونه استفاده از هوش مصنوعی توسط بیبیسی در تولید، ارائه یا توزیع محتوا باید شامل نظارت و تأیید تحریریۀ فعال انسانی باشد که متناسب با ماهیت استفاده و منطبق بر دستورالعملهای تحریریه باشد.
برای مثال، نظارت بر یک موتور پیشنهاددهنده ممکن است در سطحی کلی باشد تا اطمینان حاصل شود که خروجی آن با دستورالعملهای تحریریه سازگار است. اما در مواردی که از هوش مصنوعی برای تحلیل دادهها در یک پروژۀ روزنامهنگارانه استفاده میشود، نظارت انسانی باید با نتایج دقیقتر و جزئیتر درگیر شود.
در تمام موارد، یک عضو ارشد تحریریه باید مسئول و پاسخگوی نظارت بر استفاده از هوش مصنوعی و ادامۀ استفاده از آن باشد. مدیران تحریریه نیز باید اطمینان حاصل کنند که از استفادۀ تیمهای خود از هوش مصنوعی آگاهی دارند و آن را بهطور مؤثر مدیریت میکنند.
هرگونه استفاده از هوش مصنوعی توسط بیبیسی در تولید، ارائه یا توزیع محتوا باید شفاف و برای مخاطب واضح باشد.
مخاطبان باید به شکلی متناسب با بستر و شرایط [استفاده از هوش مصنوعی] مطلع شوند و ممکن است مفید باشد که نهتنها توضیح داده شود که هوش مصنوعی استفاده شده است، بلکه توضیح داده شود که هوش مصنوعی چگونه و چرا مورد استفاده قرار گرفته است.
توجه ویژه باید به استفاده از محتوای هوش مصنوعی که برای افراد زیر ۱۸ سال طراحی شده، معطوف شود.
۴. سوگیری الگوریتمی و دادههای آموزشی
نتایج تولیدشده توسط هوش مصنوعی به هر دو عامل الگوریتم پشت آن و دادههایی که بر اساس آن آموزش دیده است بستگی دارد. هم الگوریتم و هم دادههای آموزشی ممکن است سوگیریها یا بیدقتیهایی را در نتایج هوش مصنوعی وارد کنند.
برای مثال، یکی از موارد استفادۀ اولیه از نرمافزار تشخیص چهره در سیستم تمدید گذرنامه در بریتانیا، تشخیص برخی از رنگهای پوست را دشوار میکرد که این امر باعث میشد برخی افراد نتوانند گذرنامۀ خود را بهصورت آنلاین تمدید کنند.
هرگونه استفادۀ پیشنهادی از هوش مصنوعی باید بررسی کند که آیا سوگیریهای ذاتی در الگوریتم یا دادهها بر استفادۀ بیبیسی تأثیر میگذارند و در نتیجه آیا این ابزار مناسب است یا خیر.
۵. توهمات (Hallucinations)
هوش مصنوعی مولد بر اساس پیشبینی پاسخهای محتمل به پرسشها یا دستورها عمل میکند که بر اساس طبیعت الگوریتم و دادههای آموزشی آن تعیین میشود، نه لزوماً ارائۀ محتوای دقیق و مبتنی بر واقعیت.
هرگونه استفادۀ پیشنهادی از هوش مصنوعی مولد باید این احتمال را در نظر بگیرد که محتوای ارائهشده بهعنوان اطلاعات دقیق، در حقیقت ساختهشده توسط الگوریتم باشد و ساختگی و بهاصطلاح «توهمِ» بدون مبنای واقعی باشد.
۶. سرقت ادبی و تقلید
بهطور مشابه، هوش مصنوعی مولد ممکن است بهسادگی محتوایی را از جستجوی وب یا پایگاه دادهای از محتوای معتبر اقتباس کرده و آن را بهعنوان محتوای اورجینال ارائه دهد.
هرگونه استفادۀ پیشنهادی از هوش مصنوعی باید این احتمال را در نظر بگیرد که محتوای ارائهشده بهعنوان محتوای اورجینال در واقع کپی یا تقلید شده باشد.
بیبیسی همچنین مسئولیت دارد که نهتنها حقوق خالقان و هنرمندان را در استفاده از هوش مصنوعی رعایت کند، بلکه نقشی را که آنها در جامعۀ خلاق ایفا میکنند به خطر نیندازد. هرگونه استفاده از هوش مصنوعی باید حقوق استعدادها و مشارکتکنندگان را در نظر گرفته و درعینحال، امکان استفادۀ خلاقانه از اشکال جدید بیان (expression) را فراهم کند.
۷. مسائل غیرتحریریهای در استفاده از هوش مصنوعی
در هرگونه استفادۀ مسئولانه از هوش مصنوعی، مسائل مهم غیرتحریریهای نیز باید در نظر گرفته شوند.
ممکن است مسائل حقوقی و تجاری در مورد حقوق مالکیت یا مسئولیت کاربر یا توسعهدهندۀ هوش مصنوعی نسبت به هر خروجی ایجادشده مطرح شود.
بهطور مشابه، هرگونه اطلاعات ورودی به هوش مصنوعی ممکن است توسط توسعهدهندۀ آن برای آموزش بیشتر مورد استفاده قرار گیرد یا با طرفهای ثالث به اشتراک گذاشته شود.
این مسائل میتوانند نگرانیهای مهمی در مورد حفاظت از دادهها یا امنیت اطلاعات ایجاد کنند، مانند اطلاعات محرمانه یا تجاری، محتوای دارای حق تألیف، یا هرگونه دادۀ شخصی که توسط ابزار ورودی، خروجی یا تعامل با آن تولید یا پردازش شده است.
۸. دریافت راهنمایی
برای کارکنان و فریلنسرهای بیبیسی، هرگونه پیشنهاد استفاده از هوش مصنوعی باید ابتدا به یک مقام ارشد تحریریه ارجاع داده شود که میبایست سیاست تحریریه (Editorial Policy) را در نظر بگیرد. سیاست تحریریه ممکن است استفادههای پیشنهادی و پرسشها را به گروه نظارتی ریسک هوش مصنوعی (AIRA) ارجاع دهد، بهویژه در مواردی که مسائل غیرتحریریهای مطرح باشند.
گروه AIRA شامل متخصصان حوزههای مختلف ریسک هوش مصنوعی در بیبیسی است، از جمله متخصصان حوزههای حقوقی، حفاظت از دادهها، امور تجاری و بازرگانی، امنیت اطلاعات و سیاست تحریریه. این رویکرد بینارشتهای منعکسکنندۀ تنوع مسائل مختلفی است که بسیاری از موارد استفاده از هوش مصنوعی را تحتتأثیر قرار میدهند.
گروه نظارتی ریسک هوش مصنوعی میتواند مشاورههای دقیقی در مورد ریسکهای تحریریهای و غیرتحریریهای در استفاده از هوش مصنوعی ارائه دهد.
۹. موارد استفاده
۱.۹. استفاده از هوش مصنوعی مولد برای تولید محتوا
استفاده از هوش مصنوعی مولد برای تولید مستقیم محتوای خبری که توسط BBC News/Nations، برنامههای جاری یا روزنامهنگاری مبتنی بر واقعیت منتشر یا پخش میشود، مجاز نیست، مگر اینکه خود آن موضوعِ محتوای مدنظر باشد و استفاده از آن جنبۀ توضیحی یا نمایشی داشته باشد.
استثنائات، مانند تولید گرافیک، ممکن است با طی کردن یک فرایند آزمایشی مورد بررسی قرار گیرد.
استفاده از ابزارهای هوش مصنوعی برای تولید مدیا ممکن است در صورتی مورد قبول باشد که استفاده از آنها معنای تحریریهای محتوا را به چالش نکشد، معنای رویدادها را تحریف نکند، تأثیر مطالب واقعی را تغییر ندهد و بهطور کلی مخاطبان را به شکلی قابلتوجه گمراه نکند.
نمونههای استفادۀ قابلقبول ممکن است شامل موارد زیر باشد:
- استفاده از صدای ترکیبی برای ارائۀ محتوای متنی، به شرطی که صدای فرد دیگری را تقلید نکند.
- استفاده از «چهرههای جعل عمیق» برای حفظ ناشناس بودن در یک مستند.
تصاویر و ویدیوهای [مربوط به محتوای] خبری، امور جاری و روزنامهنگاری مبتنی بر واقعیت، نباید فراتر از یک برش سمپاتیک و تنظیمات جزئی روشنایی و کنتراست، دستکاری شوند.
هرگونه استفاده از ابزارهای هوش مصنوعی مولد در نرمافزارهای ویرایش – مانند گزینههایی مثل «پر کردن مولد» (Generative Fill) – که امکان اضافه یا حذف محتوا در تصاویر یا ویدیو را فراهم میکند، تنها در صورتی مجاز است که باعث گمراهی قابلتوجه مخاطبان نشود.
هرگاه این تکنیکها به کار گرفته میشوند، باید به شکلی مناسب به مخاطب اطلاع داده شوند.
۲.۹. استفاده از هوش مصنوعی برای پشتیبانی تولید یا تحقیقات تحریریهای
ابزارهای هوش مصنوعی مولد یا ابزارهای مبتنی بر هوش مصنوعی ممکن است در فرایند تولید بهگونهای استفاده شوند که بهطور مستقیم محتوای قابل انتشار تولید نکنند، بلکه اطلاعات، بینش یا تحلیلهایی ارائه دهند که به آن فرایند کمک کنند.
بااینحال، مهم است سطح خودکارسازی را باتوجهبه اهمیت تحریریهایِ وظیفهای که انجام میدهد در نظر بگیریم. استفاده از هوش مصنوعی مولد برای برانگیختن خلاقیت، مانند تکنیکهای ایدهپردازی یا طراحی استوریبورد، ممکن است ریسک کمی به همراه داشته باشد.
از سوی دیگر، استفاده از آن برای تحلیل دادهها ممکن است بر اساس الگوریتم خاص و دادههایی که بر روی آنها آموزش دیده است، خروجیهای تحریریهای متفاوت یا بالقوۀ نامناسبی ارائه دهد.
به همین ترتیب، هرگونه استفاده از فناوریهای تبدیل گفتار به متن نیازمند نظارت دقیق تحریریهایِ انسانی خواهد بود.
هرگونه استفاده از هوش مصنوعی مولد یا ابزارهای مبتنی بر هوش مصنوعی باید بهطور فعال کنترل شود و نتایج آن قبل از استفاده در محتوای بیبیسی، توسط نظارت تحریریهایِ انسانی ارزیابی شود.
باید هنگام پیشنهاد استفاده از این ابزارها، چه داخلی و چه از منابع خارجی، سیاست تحریریه لحاظ شده و در صورت لزوم، گروه نظارتی ریسک هوش مصنوعی (AIRA) در جریان قرار بگیرد.
هرگونه ابزار هوش مصنوعی خارجی باید پیش از استفاده، مطابق با فرایندهای موجود بیبیسی برای تأیید نرمافزار یا خریداری، مجاز شناخته شود.
۳.۹. استفاده از هوش مصنوعی برای توزیع یا مدیریت محتوا
بیبیسی درحالحاضر از هوش مصنوعی در سیستمهای شخصیسازی و موتورهای پیشنهاددهنده برای ارائۀ محتوا به مخاطبان در پلتفرمهایی مانند iPlayer و Sounds استفاده میکند.
محصولاتی که به این شکل محتوا را توزیع میکنند بهعنوان یک تجربۀ تحریریهای در نظر گرفته میشوند و بنابراین باید تحت تأیید تحریریه و نظارت انسانی قرار گیرند.
با توسعۀ محصولات پیچیدهتر، این سیستمها باید با ارزشهای تحریریۀ بیبیسی، از جمله بیطرفی، انصاف و پرهیز از آسیب یا توهین، سازگار باشند.
در گزارشهای مربوط به جرایم و پروندههای قضایی، خطرات خاصی ممکن است مطرح شود، مانند خطر تحقیر دادگاه درصورتیکه محتوایی پیشنهاد شود که ممکن است به یک محاکمۀ عادلانه آسیب بزند. مشورت با تیم حقوقی برنامهها ضروری است.
در دورههای انتخاباتی نیز خطرات افزایشیافتهای در زمینۀ بیطرفی وجود دارد.
۴.۹. استفاده از هوش مصنوعی توسط اشخاص ثالث، از جمله تهیهکنندگان مستقل
بیبیسی باید نسبت به نحوۀ استفاده از هوش مصنوعی در محتوایی که از اشخاص ثالث دریافت میکند یا از آنها خریداری کرده است، چه این استفاده عمدی باشد و چه سهوی، دقت کند.
شرکتهای تولیدکنندۀ مستقل یا هر کسی که برای بیبیسی محتوا تولید میکند و از هوش مصنوعی استفاده میکند، باید این کار را به شیوهای انجام دهند که با دستورالعملهای تحریریه و فرایندهای مرتبط در این راهنما، از جمله اصول بیطرفی، دقت، انصاف و حفظ حریم خصوصی سازگار باشد.
یک مقام ارشد تحریریه که مسئولیت رعایت الزامات در تیم تولید را بر عهده دارد باید نسبت به استفاده از هوش مصنوعی پاسخگو باشد.
هرگونه استفادۀ پیشنهادی از هوش مصنوعی که ممکن است تأثیر قابلتوجهی بر محتوای ارائهشده برای مخاطبان بیبیسی داشته باشد، باید بهعنوان بخشی از فرایند حقالعملکاری مورد بحث قرار گیرد. شرکتهای مستقل تولیدکننده باید برای دریافت راهنمایی با مدیر حقالعملکاری خود تماس بگیرند که ممکن است خود او سیاست تحریریه را مدنظر قرار داده و بررسی کند.
بیبیسی باید از استفادۀ احتمالی هوش مصنوعی در محتوای خریداریشده نیز آگاه باشد و اطمینان حاصل کند که انتشار یا پخش آن مطابق با این راهنما است.
تهیهکنندگان بیبیسی نیز باید در استفاده از مدیای مصنوعی یا هوش مصنوعی در محتوای خارجی، مانند محتوای تولیدشده توسط کاربران، دقت کنند. آنها باید همیشه محتوای تولیدشده توسط کاربران را بهدقت اصالتسنجی کنند و در این زمینه با کارشناسان در مرکز محتوای کاربر (UGC Hub) یا تیم BBC Verify مشورت کنند.
دانلود نسخۀ پیدیاف: دستورالعمل تحریریۀ بیبیسی برای استفاده از هوش مصنوعی
منبع خبر:
مصور
/ دستورالعمل تحریریۀ بیبیسی برای استفاده از هوش مصنوعی
تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی برای مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.