سازمان بهداشت جهانی (WHO) در حال انتشار دستورالعملهای جدیدی در مورد اخلاقیات و قوانین مدلهای چندوجهی بزرگ (LMMs) است؛ نوعی فناوری هوش مصنوعی زاینده (مولد) که به سرعت رشد میکند و در سراسر حوزه مراقبتهای بهداشتی کاربرد دارد.
این دستورالعمل بیش از 40 توصیه را برای بررسی توسط دولتها، شرکتهای فناوری و ارائهدهندگان مراقبتهای بهداشتی برای اطمینان از استفاده مناسب از LMM برای ارتقا و محافظت از سلامت جمعیت در بر میگیرد.
LMMها میتوانند یک یا چند نوع ورودی داده مانند متن، فیلم و تصویر را بپذیرند و خروجیهای متنوعی را تولید کنند که محدود به نوع دادههای ورودی نیست.
این مدلهای چندوجهی بزرگ در تقلید از ارتباطات انسانی و توانایی انجام وظایفی که به صراحت برای انجام آنها برنامهریزی نشده بودند، منحصربهفرد هستند. LMMها سریعتر از هر برنامه کاربردی دیگری در تاریخ مورد استفاده قرار گرفته و از طریق چندین پلتفرم – مانند ChatGPT، Bard و Bert – در سال 2023 به آگاهی عموم رسیدند.
سازمان بهداشت جهانی و هوش مصنوعی
«دکتر جرمی فارار» دانشمند ارشد سازمان بهداشت جهانی میگوید: «فناوریهای هوش مصنوعی زاینده پتانسیل بهبود مراقبتهای بهداشتی را دارند، اما تنها در صورتی که کسانی که این فناوریها را توسعه، تنظیم و استفاده میکنند، خطرات مرتبط با آن را شناسایی کرده و بهطور کامل در نظر بگیرند. ما به اطلاعات و سیاستهای شفاف برای مدیریت طراحی، توسعه و استفاده از LMM برای دستیابی به نتایج سلامت بهتر و غلبه بر نابرابریهای بهداشتی مداوم نیاز داریم.»
ظرفیتها و خطرات بالقوه هوش مصنوعی در حوزه بهداشت
دستورالعمل جدید WHO، پنج کاربرد گسترده مدلهای بزرگ چندوجهی برای سلامتی را چنین تشریح میکند:
- تشخیص و مراقبتهای بالینی، مانند پاسخ به سوالات کتبی بیماران
- استفاده تحت هدایت بیمار، مانند بررسی علائم و درمان
- وظایف اداری و اتوماسیون، مانند مستندسازی و خلاصه کردن ویزیت بیماران در پرونده الکترونیک سلامت
- آموزش پزشکی و پرستاری، از جمله ارائه برخوردهای شبیهسازی شده با بیمار به کارآموزان
- تحقیقات علمی و توسعه دارو، از جمله شناسایی ترکیبات جدید
در حالی که LMMها شروع به استفاده برای اهداف خاص مرتبط با سلامتی میکنند، خطرات مستندی از تولید اظهارات نادرست، جانبدارانه یا ناقص نیز وجود دارد که میتواند به افرادی که از چنین اطلاعاتی در تصمیمگیریهای بهداشتی استفاده میکنند، آسیب برساند.
علاوه بر این، LMMها ممکن است بر روی دادههایی که کیفیت پایین یا مغرضانه دارند، چه بر اساس نژاد، قومیت، اجداد، جنسیت، هویت جنسیتی یا سن، آموزش ببینند.
این دستورالعمل همچنین به خطرات گستردهتری برای سیستمهای بهداشتی، مانند دسترسی و مقرون به صرفه بودن LMM با بهترین عملکرد اشاره میکند.
از دیگر ریسکهای استفاده از این مدلها این است که LLMها میتوانند “سوگیری اتوماسیون” را توسط متخصصان مراقبتهای بهداشتی و بیماران تشدید کند.
LMMها مانند سایر اشکال هوش مصنوعی، در برابر خطرات امنیت سایبری نیز آسیبپذیر هستند که این ضعف میتواند اطلاعات بیمار یا قابل اعتماد بودن این الگوریتمها را به خطر بیاندازد.
برای ایجاد LMMهای ایمن و موثر، سازمان بهداشت جهانی بر نیاز به مشارکت ذینفعان مختلف: دولتها، شرکتهای فناوری، ارائهدهندگان مراقبتهای بهداشتی، بیماران و جامعه مدنی در تمام مراحل توسعه و استقرار چنین فناوریهایی، از جمله نظارت و مقررات آنها تاکید میکند.
دکتر «آلن لابریک» مدیر بهداشت دیجیتال و نوآوری سازمان بهداشت جهانی در بخش علوم میگوید: «دولتهای همه کشورها باید با همکاری یکدیگر تلاشها را برای تنظیم موثر توسعه و استفاده از فناوریهای هوش مصنوعی، مانند LMMها رهبری کنند.»