چت‌بات‌ها
ربات‌های هوش مصنوعی

اتهام بزرگ به چت‌بات‌ها: هوشی مصنوعی شما اختلال خوردن را ترویج می‌دهد!

سرفصل‌های مقاله

شرکت‌های پشتیبان برخی از محبوب‌ترین ابزارهای هوش مصنوعی این هفته تحت فشار گزارشی بودند که به طور گسترده مورد استناد قرار گرفته بود و ادعا می‌کرد که چت‌بات‌ها اطلاعات خطرناکی را در اختیار کاربران جوان آسیب‌پذیری قرار می‌دهند که از اختلالات خوردن رنج می‌برند.

OpenAI، Google و Stability AI از فناوری خود در برابر اتهاماتی که در سایت Decryot منتشر شده بود دفاع کردند. گزارشی که موارد مطرح‌شده در آن قبل‌تر در کاخ سفید هم بحث‌هایی را برانگیخته بود. اصل این گزارش برگرفته از مقاله مفصلی است که در «مرکز مقابله با نفرت‌پراکنی مجازی» (CCDH) ایالات متحده منتشر شده بود.

«عمران احمد» مدیرعامل این مرکز نوشت: «مدل‌های آزمایش‌نشده و ناایمن هوش مصنوعی مولد در جهان با پیامدهای اجتناب‌ناپذیر آسیب‌رسانی به دنیا عرضه شده‌اند.

 ما دریافتیم که محبوب‌ترین سایت‌های هوش مصنوعی مولد، اختلالات خوردن را در میان کاربران جوان تشویق و تشدید می‌کنند که برخی از آن‌ها ممکن است بسیار آسیب‌پذیر باشند.»

چت‌بات‌ها واقعا باعث اختلال خوردن می‌شوند؟

چت‌بات‌ها
چت‌بات‌ها و اختلال خوردن

در مقاله «هوش مصنوعی و اختلالات خوردن»، CCDH چت‌بات‌های هوش مصنوعی مانند ChatGPT و Google Bard را متهم کرد که اختلالات خوردن و تصاویر ناسالم و غیرواقعی از بدن انسان را ترویج می‌کنند و به اندازه کافی تلاشی برای محافظت از کاربران انجام نمی‌دهند. چندین شرکت هوش مصنوعی با نکات مشابهی به این اتهامات پاسخ دادند.

«بن بروکس» رئیس سیاست‌گذاری هوش مصنوعی Stability در ایمیلی به Decrypt گفت: «ما متعهد به استفاده ایمن و مسئولانه از فناوری هوش مصنوعی هستیم. هوش مصنوعی Stability استفاده نادرست از هوش مصنوعی مولد تصویر Stable Diffusion برای اهداف غیرقانونی، گمراه‌کننده یا غیراخلاقی را ممنوع می‌کند و ما همچنان به سرمایه‌گذاری برای جلوگیری از سوء استفاده از هوش مصنوعی برای تولید محتوای مضر ادامه می‌دهیم.»

همانطور که بروکس توضیح داد، هوش مصنوعی Stability پیام‌ها و تصاویر ناامن را از داده‌های آموزشی از Stable Diffusion فیلتر و تلاش می‌کند تولید محتوای مضر را قبل از این‌که از طریق پرامپت‌های کاربر تولید شود، مهار کند.

بروکس اضافه کرد: «ما همیشه در حال کار برای مقابله با خطرات نوظهور هستیم. دستورالعمل‌های مربوط به اختلالات خوردن به فیلترهای ما اضافه شده است و ما از گفتگو با جامعه تحقیقاتی در مورد راه‌های موثر برای کاهش این خطرات استقبال می‌کنیم.»

OpenAI، خالق ChatGPT محبوب نیز به گزارش CCDH پاسخ داد و گفت که نمی‌خواهد از مدل‌های این شرکت برای جلب توصیه‌هایی برای آسیب رساندن به خود استفاده شود.

یکی از سخن‌گویان شرکت هوش مصنوعی OpenAI به Decrypt گفت: «ما اقدامات کاهشی برای محافظت در برابر این موضوع داریم و سیستم‌های هوش مصنوعی خود را آموزش داده‌ایم تا افراد را تشویق کنیم تا در صورت مواجهه با درخواست‌های مشاوره بهداشتی، به دنبال راهنمایی حرفه‌ای باشند. 

ما تشخیص می‌دهیم که سیستم‌های ما همیشه نمی‌توانند هدف را تشخیص دهند، حتی زمانی که پرامپت‌ها حامل سیگنال‌های ظریفی هستند. ما به تعامل با کارشناسان بهداشت ادامه خواهیم داد تا بهتر درک کنیم که پاسخ‌های خوش‌خیم یا مضر چیستند.»

یکی از سخن‌گویان گوگل در روز سه‌شنبه به Decrypt گفت: «اختلالات خوردن مسائلی عمیقا دردناک و چالش‌برانگیز هستند، بنابراین وقتی مردم برای اطلاع از عادات غذایی به Bard می‌آیند، هدف ما ارائه پاسخ‌های مفید و ایمن است. 

«بارد» یک محصول تجربی است، بنابراین ما مردم را تشویق می‌کنیم که اطلاعات پاسخ‌های بارد را دوباره بررسی کنند، برای راهنمایی‌های معتبر در مورد مسائل بهداشتی با متخصصان پزشکی مشورت کنند و برای مشاوره پزشکی، حقوقی، مالی یا سایر مشاوره‌های حرفه‌ای صرفا به پاسخ‌های بارد اعتماد نکنند.»

گزارش CCDH در همان زمانی ارائه شده که توسعه‌دهندگان هوش مصنوعی در حال تلاش برای آرام کردن ترس‌ها در مورد این فناوری در حال پیشرفت هستند.

در ماه جولای، تعدادی از توسعه‌دهندگان پیشروی حوزه هوش مصنوعی مولد – از جمله OpenAI، مایکروسافت و گوگل – متعهد شدند که فناوری هوش مصنوعیِ ایمن، حفاظت‌شده و شفاف را توسعه دهند.

 اقدامات وعده‌داده شده شامل به اشتراک‌گذاری بهترین شیوه‌ها برای ایمنی هوش مصنوعی، سرمایه‌گذاری در امنیت سایبری و حفاظت در برابر تهدیدات داخلی و گزارش عمومی قابلیت‌های سیستم‌های هوش مصنوعی، محدودیت‌ها، زمینه‌های استفاده مناسب و نامناسب، و خطرات اجتماعی ناشی از این فناوری است.

CCDH در گزارش خود اعلام کرد که با استفاده از پرامپت‌های «جیل‌بریک» می‌تواند تدابیر امنیتی را که روی چت‌بات‌های هوش مصنوعی اعمال شده دور بزند.

در حالی‌که غول‌های فناوری پاسخ‌هایی به این گزارش برای Decrypt ارسال کردند، نویسندگان گزارش امیدوار نیستند که به‌زودی پاسخی امیدوارکننده از توسعه‌دهندگان هوش مصنوعی مولد بشنوند.

یکی از نمایندگان CCDH به Decrypt گفت: «ما با شرکت‌هایی که درباره آن‌ها مطالعه می‌کنیم تماس نمی‌گیریم و آن‌ها نیز معمولا با ما تماس نمی‌گیرند. در این مورد هم ما هیچ تماس مستقیمی با هیچ یک از شرکت‌های معرفی‌شده نداشته‌ایم.»

مهران
مهران