شرکتهای پشتیبان برخی از محبوبترین ابزارهای هوش مصنوعی این هفته تحت فشار گزارشی بودند که به طور گسترده مورد استناد قرار گرفته بود و ادعا میکرد که چتباتها اطلاعات خطرناکی را در اختیار کاربران جوان آسیبپذیری قرار میدهند که از اختلالات خوردن رنج میبرند.
OpenAI، Google و Stability AI از فناوری خود در برابر اتهاماتی که در سایت Decryot منتشر شده بود دفاع کردند. گزارشی که موارد مطرحشده در آن قبلتر در کاخ سفید هم بحثهایی را برانگیخته بود. اصل این گزارش برگرفته از مقاله مفصلی است که در «مرکز مقابله با نفرتپراکنی مجازی» (CCDH) ایالات متحده منتشر شده بود.
«عمران احمد» مدیرعامل این مرکز نوشت: «مدلهای آزمایشنشده و ناایمن هوش مصنوعی مولد در جهان با پیامدهای اجتنابناپذیر آسیبرسانی به دنیا عرضه شدهاند.
ما دریافتیم که محبوبترین سایتهای هوش مصنوعی مولد، اختلالات خوردن را در میان کاربران جوان تشویق و تشدید میکنند که برخی از آنها ممکن است بسیار آسیبپذیر باشند.»
چتباتها واقعا باعث اختلال خوردن میشوند؟
در مقاله «هوش مصنوعی و اختلالات خوردن»، CCDH چتباتهای هوش مصنوعی مانند ChatGPT و Google Bard را متهم کرد که اختلالات خوردن و تصاویر ناسالم و غیرواقعی از بدن انسان را ترویج میکنند و به اندازه کافی تلاشی برای محافظت از کاربران انجام نمیدهند. چندین شرکت هوش مصنوعی با نکات مشابهی به این اتهامات پاسخ دادند.
«بن بروکس» رئیس سیاستگذاری هوش مصنوعی Stability در ایمیلی به Decrypt گفت: «ما متعهد به استفاده ایمن و مسئولانه از فناوری هوش مصنوعی هستیم. هوش مصنوعی Stability استفاده نادرست از هوش مصنوعی مولد تصویر Stable Diffusion برای اهداف غیرقانونی، گمراهکننده یا غیراخلاقی را ممنوع میکند و ما همچنان به سرمایهگذاری برای جلوگیری از سوء استفاده از هوش مصنوعی برای تولید محتوای مضر ادامه میدهیم.»
همانطور که بروکس توضیح داد، هوش مصنوعی Stability پیامها و تصاویر ناامن را از دادههای آموزشی از Stable Diffusion فیلتر و تلاش میکند تولید محتوای مضر را قبل از اینکه از طریق پرامپتهای کاربر تولید شود، مهار کند.
بروکس اضافه کرد: «ما همیشه در حال کار برای مقابله با خطرات نوظهور هستیم. دستورالعملهای مربوط به اختلالات خوردن به فیلترهای ما اضافه شده است و ما از گفتگو با جامعه تحقیقاتی در مورد راههای موثر برای کاهش این خطرات استقبال میکنیم.»
OpenAI، خالق ChatGPT محبوب نیز به گزارش CCDH پاسخ داد و گفت که نمیخواهد از مدلهای این شرکت برای جلب توصیههایی برای آسیب رساندن به خود استفاده شود.
یکی از سخنگویان شرکت هوش مصنوعی OpenAI به Decrypt گفت: «ما اقدامات کاهشی برای محافظت در برابر این موضوع داریم و سیستمهای هوش مصنوعی خود را آموزش دادهایم تا افراد را تشویق کنیم تا در صورت مواجهه با درخواستهای مشاوره بهداشتی، به دنبال راهنمایی حرفهای باشند.
ما تشخیص میدهیم که سیستمهای ما همیشه نمیتوانند هدف را تشخیص دهند، حتی زمانی که پرامپتها حامل سیگنالهای ظریفی هستند. ما به تعامل با کارشناسان بهداشت ادامه خواهیم داد تا بهتر درک کنیم که پاسخهای خوشخیم یا مضر چیستند.»
یکی از سخنگویان گوگل در روز سهشنبه به Decrypt گفت: «اختلالات خوردن مسائلی عمیقا دردناک و چالشبرانگیز هستند، بنابراین وقتی مردم برای اطلاع از عادات غذایی به Bard میآیند، هدف ما ارائه پاسخهای مفید و ایمن است.
«بارد» یک محصول تجربی است، بنابراین ما مردم را تشویق میکنیم که اطلاعات پاسخهای بارد را دوباره بررسی کنند، برای راهنماییهای معتبر در مورد مسائل بهداشتی با متخصصان پزشکی مشورت کنند و برای مشاوره پزشکی، حقوقی، مالی یا سایر مشاورههای حرفهای صرفا به پاسخهای بارد اعتماد نکنند.»
گزارش CCDH در همان زمانی ارائه شده که توسعهدهندگان هوش مصنوعی در حال تلاش برای آرام کردن ترسها در مورد این فناوری در حال پیشرفت هستند.
در ماه جولای، تعدادی از توسعهدهندگان پیشروی حوزه هوش مصنوعی مولد – از جمله OpenAI، مایکروسافت و گوگل – متعهد شدند که فناوری هوش مصنوعیِ ایمن، حفاظتشده و شفاف را توسعه دهند.
اقدامات وعدهداده شده شامل به اشتراکگذاری بهترین شیوهها برای ایمنی هوش مصنوعی، سرمایهگذاری در امنیت سایبری و حفاظت در برابر تهدیدات داخلی و گزارش عمومی قابلیتهای سیستمهای هوش مصنوعی، محدودیتها، زمینههای استفاده مناسب و نامناسب، و خطرات اجتماعی ناشی از این فناوری است.
CCDH در گزارش خود اعلام کرد که با استفاده از پرامپتهای «جیلبریک» میتواند تدابیر امنیتی را که روی چتباتهای هوش مصنوعی اعمال شده دور بزند.
در حالیکه غولهای فناوری پاسخهایی به این گزارش برای Decrypt ارسال کردند، نویسندگان گزارش امیدوار نیستند که بهزودی پاسخی امیدوارکننده از توسعهدهندگان هوش مصنوعی مولد بشنوند.
یکی از نمایندگان CCDH به Decrypt گفت: «ما با شرکتهایی که درباره آنها مطالعه میکنیم تماس نمیگیریم و آنها نیز معمولا با ما تماس نمیگیرند. در این مورد هم ما هیچ تماس مستقیمی با هیچ یک از شرکتهای معرفیشده نداشتهایم.»