دستورالعمل‌های سازمان بهداشت جهانی

دستورالعمل‌های سازمان بهداشت جهانی برای هوش مصنوعی

سرفصل‌های مقاله

سازمان بهداشت جهانی (WHO) در حال انتشار دستورالعمل‌های جدیدی در مورد اخلاقیات و قوانین مدل‌های چندوجهی بزرگ (LMMs) است؛ نوعی فناوری هوش مصنوعی زاینده (مولد) که به سرعت رشد می‌کند و در سراسر حوزه مراقبت‌های بهداشتی کاربرد دارد.

این دستورالعمل بیش از 40 توصیه را برای بررسی توسط دولت‌ها، شرکت‌های فناوری و ارائه‌دهندگان مراقبت‌های بهداشتی برای اطمینان از استفاده مناسب از LMM برای ارتقا و محافظت از سلامت جمعیت در بر می‌گیرد.

LMMها می‌توانند یک یا چند نوع ورودی داده مانند متن، فیلم و تصویر را بپذیرند و خروجی‌های متنوعی را تولید کنند که محدود به نوع داده‌های ورودی نیست.

 این مدل‌های چندوجهی بزرگ در تقلید از ارتباطات انسانی و توانایی انجام وظایفی که به صراحت برای انجام آ‌ن‌ها برنامه‌ریزی نشده بودند، منحصر‌به‌فرد هستند. LMMها سریع‌تر از هر برنامه کاربردی دیگری در تاریخ مورد استفاده قرار گرفته‌ و از طریق چندین پلتفرم – مانند ChatGPT، Bard و Bert – در سال 2023 به آگاهی عموم رسیدند.

سازمان بهداشت جهانی و هوش مصنوعی

who«دکتر جرمی فارار» دانشمند ارشد سازمان بهداشت جهانی می‌گوید: «فناوری‌های هوش مصنوعی زاینده پتانسیل بهبود مراقبت‌های بهداشتی را دارند، اما تنها در صورتی که کسانی که این فناوری‌ها را توسعه، تنظیم و استفاده می‌کنند، خطرات مرتبط با آن را شناسایی کرده و به‌طور کامل در نظر بگیرند. ما به اطلاعات و سیاست‌های شفاف برای مدیریت طراحی، توسعه و استفاده از LMM برای دستیابی به نتایج سلامت بهتر و غلبه بر نابرابری‌های بهداشتی مداوم نیاز داریم.»

ظرفیت‌ها و خطرات بالقوه هوش مصنوعی در حوزه بهداشت

دستورالعمل جدید WHO، پنج کاربرد گسترده مدل‌های بزرگ چندوجهی برای سلامتی را چنین تشریح می‌کند:

  • تشخیص و مراقبت‌های بالینی، مانند پاسخ به سوالات کتبی بیماران
  • استفاده تحت هدایت بیمار، مانند بررسی علائم و درمان
  • وظایف اداری و اتوماسیون، مانند مستندسازی و خلاصه کردن ویزیت بیماران در پرونده الکترونیک سلامت
  • آموزش پزشکی و پرستاری، از جمله ارائه برخوردهای شبیه‌سازی شده با بیمار به کارآموزان
  • تحقیقات علمی و توسعه دارو، از جمله شناسایی ترکیبات جدید

در حالی که LMM‌ها شروع به استفاده برای اهداف خاص مرتبط با سلامتی می‌کنند، خطرات مستندی از تولید اظهارات نادرست، جانبدارانه یا ناقص نیز وجود دارد که می‌تواند به افرادی که از چنین اطلاعاتی در تصمیم‌گیری‌های بهداشتی استفاده می‌کنند، آسیب برساند.

 علاوه بر این، LMM‌ها ممکن است بر روی داده‌هایی که کیفیت پایین یا مغرضانه دارند، چه بر اساس نژاد، قومیت، اجداد، جنسیت، هویت جنسیتی یا سن، آموزش ببینند.

این دستورالعمل همچنین به خطرات گسترده‌تری برای سیستم‌های بهداشتی، مانند دسترسی و مقرون به صرفه بودن LMM با بهترین عملکرد اشاره می‌کند.

 از دیگر ریسک‌های استفاده از این مدل‌ها این است که LLMها می‌توانند “سوگیری اتوماسیون” را توسط متخصصان مراقبت‌های بهداشتی و بیماران تشدید کند.

LMM‌ها مانند سایر اشکال هوش مصنوعی، در برابر خطرات امنیت سایبری نیز آسیب‌پذیر هستند که این ضعف می‌تواند اطلاعات بیمار یا قابل اعتماد بودن این الگوریتم‌ها را به خطر بی‌اندازد.

برای ایجاد LMMهای ایمن و موثر، سازمان بهداشت جهانی بر نیاز به مشارکت ذی‌نفعان مختلف: دولت‌ها، شرکت‌های فناوری، ارائه‌دهندگان مراقبت‌های بهداشتی، بیماران و جامعه مدنی در تمام مراحل توسعه و استقرار چنین فناوری‌هایی، از جمله نظارت و مقررات آن‌ها تاکید می‌کند.

دکتر «آلن لابریک» مدیر بهداشت دیجیتال و نوآوری سازمان بهداشت جهانی در بخش علوم می‌گوید: «دولت‌های همه کشورها باید با همکاری یکدیگر تلاش‌ها را برای تنظیم موثر توسعه و استفاده از فناوری‌های هوش مصنوعی، مانند LMMها رهبری کنند.»

مهران
مهران