طبسی
تحقیقات درباره هوش مصنوعی

الهام طبسی در بین ۱۰۰ فرد تأثیرگذار هوش مصنوعی سال ۲۰۲۳

سرفصل‌های مقاله

نزدیک به پنج سال پیش، موسسه ملی استاندارد و فناوری ایالات متحده (NIST) شروع به ساخت برنامه‌ای برای پیشبرد توسعه سیستم‌های هوش مصنوعی قابل اعتماد و مسئولیت‌پذیر کرد. الهام طبسی، مهندس برق و رئیس کارکنان آزمایشگاه فناوری اطلاعات این مؤسسه بود که گفت‌وگو درباره تأثیر هوش مصنوعی را از اصول به اجرای عملی سیاست‌ها انتقال داد.

پیشنهاد او به طور قابل توجهی نتیجه بخش بود. پس از شروع تحقیقات تیم طبسی در مورد امنیت هوش مصنوعی، کنگره NIST (بخشی از وزارت بازرگانی) را موظف کرد تا چارچوب مدیریت ریسک داوطلبانه را برای سیستم‌های هوش مصنوعی قابل اعتماد به عنوان بخشی از قانون مجوز دفاع ملی (NDAA) در سال ۲۰۲۱ ایجاد کند.

الهام طبسی در ژانویه ۲۰۲۳ از چارچوب نهایی طراحی شده برای کمک به کاربران و توسعه‌دهندگان هوش مصنوعی در تجزیه و تحلیل و رسیدگی به خطرات مرتبط با سیستم‌های هوش مصنوعی و در عین حال ارائه دستورالعمل‌های عملی برای رسیدگی و به حداقل رساندن چنین خطراتی، پرده برداری کرد.

الهام طبسی کیست؟

الهام طبسی
الهام طبسی کیست؟

الهام طبسی که در دوران انقلاب و جنگ در ایران به دنیا آمده و بزرگ شده است، می‌گوید همیشه آرزوی دانشمند شدن را داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST در پروژه‌های مختلف یادگیری ماشینی و بینایی کامپیوتر با برنامه‌های کاربردی در ارزیابی بیومتریک و استانداردها شروع به کار کرد.

او در اوایل کار خود، معمار اصلی کیفیت تصویر اثر انگشت NIST (NFIQ) بود، که اکنون یک استاندارد بین‌المللی برای اندازه‌گیری کیفیت تصویر اثر انگشت است که توسط FBI و وزارت امنیت داخلی به کار گرفته شده است. در ادامه مصاحبه‌ مجله تایم با او را خواهیم داشت. (این مصاحبه خلاصه و ویرایش شده است.)

مصاحبه مجله تایم با الهام طبسی

آیا می‌توانید در مورد چارچوب مدیریت ریسک هوش مصنوعی (RMF) و هدف توسعه آن را بگویید؟ آیا این اولین AI RMF ایجاد شده است؟ اولین RMF ساخته شده توسط NIST است. این به‌روز‌رسانی به موارد قبلی نیست. بنابراین هوش مصنوعی برای ما در NIST جدید نیست. برنامه Trustworthy Responsible AI توسط NIST در سال‌های 2018-2019 پس از پیشرفت در یادگیری عمیق گردآوری شد.

بسیاری از سازمان‌ها و شرکت‌ها در حال ساختن یک برنامه هوش مصنوعی هدفمندتر بودند و تلاش‌های زیادی برای ایجاد هوش مصنوعی اخلاقی، مسئولیت‌پذیر و قابل اعتماد صورت گرفت. بنابراین زمانی که ما در حال ساختن این برنامه بودیم، یک فرآیند رقابتی وجود داشت، و چشم‌اندازی که من ارائه کردم این بود که از اصول به عمل برویم، و اجزای سازنده اصول قابل اعتماد، مسئولیت‌پذیر و اخلاقی را کشف کنیم.

ما تمام تلاش‌های تحقیقاتی خود را برای توسعه هوش مصنوعی RMF انجام دادیم و فرآیندی باز، شفاف و فراگیر را راه‌اندازی کردیم و عمداً نه تنها با توسعه‌دهندگان فناوری، دانشمندان رایانه، ریاضی‌دانان، آماردان‌ها و مهندسانی مانند خودم، بلکه با وکلای دادگستری، روانشناسان، جامعه شناسان، دانشمندان علوم شناختی و فیلسوفان هم مشاوره کردیم. ما جلسات گوش دادن زیادی را برای شنیدن در مورد فناوری هوش مصنوعی، نحوه ساخت آن و همچنین افرادی که تحت تأثیر قرار می‌گیرند، برگزار کردیم و این موارد در توسعه بسیار مفید بودند.

شما گفتید که این چارچوب داوطلبانه است و برای آژانس‌ها و سازمان‌ها در نظر گرفته شده است تا از آن برای تجزیه و تحلیل خطرات مرتبط با هوش مصنوعی استفاده کنند. آیا آژانس‌ها و سازمان‌ها از زمان انتشار چارچوب در ژانویه از آن استفاده کرده‌اند؟ هر روز در مورد یک آژانس یا نهاد جدیدی که از آن استفاده می‌کند مطلع می شویم. ما واقعاً سازمان‌ها را تشویق می‌کنیم تا به ما اطلاع دهند که چگونه از آن استفاده می‌کنند، زیرا اندازه‌گیری اثربخشی RMF برای من بسیار مهم است.

اندازه‌گیری نحوه استفاده از یک ابزار داوطلبانه بسیار دشوار است، اما این یک موضوع مهم است. من اجازه نام بردن از شرکت‌هایی که از آن استفاده می‌کنند را ندارم، اما بگذارید اینطور بیان کنیم: مایکروسافت طرحی را برای هوش مصنوعی مسئول قابل اعتماد منتشر کرد که گفته بود از هوش مصنوعی RMF NIST استفاده می‌کند. آنها گفتند که رویه‌های داخلی خود را هماهنگ کرده‌اند و از هوش مصنوعی RMF استفاده می‌کنند.

ما از سازمان‌های دیگر و در داخل دولت نیز چنین چیزهایی شنیده‌ایم. بنابراین یکی از چیزهایی که در مورد هوش مصنوعی RMF وجود دارد این است که مخاطبان آن بسیار گسترده هستند. این برای همه کسانی است که در حال طراحی، توسعه، استفاده و استقرار هوش مصنوعی هستند. بنابراین بخش‌های مختلف، سازمان‌های دولتی مختلف ایالات متحده نیز در مورد ساختن پروفایل‌ها با ما صحبت می‌کنند. به عنوان مثال، وزارت کار در حال ایجاد نمایه‌ای از مدیریت ریسک هوش مصنوعی است.

بخش کلیدی چارچوب این رویکرد مبتنی بر ریسک است. ما بسیاری از بخش‌ها را دیده‌ایم که این کار را انجام می‌دهند، اما به من بگویید چرا اتخاذ رویکرد مبتنی بر ریسک برای هوش مصنوعی منطقی است؟ من فکر می‌کنم یک رویکرد مبتنی بر ریسک برای بسیاری از بخش‌های فناوری، از جمله هوش مصنوعی، منطقی است. بنابراین یک اقدام تجویزی بسیار محدود کننده خواهد بود که مشکلات را حل نمی‌کند، برای هدف مناسب نیست و همچنین می‌تواند نوآوری را خفه کند.

الهام طبسی ادامه داد مثال بسیار بدی که من همیشه از آن استفاده می‌کنم این است که اگر از تشخیص چهره برای باز کردن قفل تلفن خود در مقابل تشخیص چهره که توسط مجریان قانون استفاده می‌شود، استفاده کنیم، می‌بینید که سطح خطر بسیار متفاوتی وجود دارد.

بنابراین با این چارچوب، به نظر می‌رسد که NIST در تلاش برای حذف خطرات ناشی از هوش مصنوعی نیست، بلکه سعی می‌کند آن خطرات را شناسایی و مدیریت کند. درسته؟ ما که در ساخت مدل و کار در علم و فناوری کامپیوتر هستیم، همیشه می‌گوییم خطای صفر وجود ندارد. ما سعی کرده‌ایم ریسک را به حداقل برسانیم، اما نمی‌توانیم سیستم‌هایی بسازیم که ریسک صفر دارند.

درعوض، آنچه باید انجام شود، درک ریسک‌های موجود، اولویت‌بندی آن ریسک‌ها و درک تعاملات بین آن ریسک‌ها است. یکی از کمک‌های مهم هوش مصنوعی RMF این بود که ساختاری برای گفتگوهای مربوط به ریسک هوش مصنوعی و مدیریت ریسک هوش مصنوعی ارائه می‌دهد و نوعی واژگان قابل همکاری برای صحبت در مورد آن ارائه می‌دهد. هر واحد تجاری باید ریسک پذیری خود را بداند، ریسک‌های موجود را درک کند، مبادلات و تعاملات بین آنها را تفسیر کند و راه‌حلی ارائه دهد.

ایالات متحده مجموعه‌ای رسمی از قوانین برای نحوه تنظیم هوش مصنوعی در بخش خصوصی ندارد. در همین حال اتحادیه اروپا در حال کار بر روی آن است. گام‌های بعدی در مقررات هوش مصنوعی در ایالات متحده چیست؟ در پاسخ به این سوال الهام طبسی گفت: ما قطعاً باید استحکام فنی را به وجود آوریم تا قوانینی داشته باشیم که قابل اجرا و شفاف باشند.

به عنوان مثال، بگوییم ایمنی هوش مصنوعی یا هوش مصنوعی پاسخگو، واقعاً به چه معناست؟ نظر شخصی من این است که مجموعه مناسبی از نرده‌های محافظ برای هوش مصنوعی ترکیبی که نوعی قابلیت همکاری و یکنواختی را برای درک، مدیریت و اندازه‌گیری ریسک در حوزه‌های مختلف به ارمغان می‌آورد.

امید من این است که هوش مصنوعی و همه این پیشرفت‌ها واقعاً بتواند برخی از بزرگترین چالش‌های زمانه ما را حل کند. از پزشکی گرفته تا آب و هوا. من همیشه به دوستان و همکارانم می‌گویم که مراقبت از والدین سالخورده به اندازه بزرگ‌شدن فرزندان‌مان رضایت بخش است. من پدر و مادرم را به دلیل یک بیماری نادر از دست دادم، اما ما می‌توانیم برای آن راه حل داشته باشیم.

می‌دانم که ما در مورد RMF زیاد صحبت کرده‌ایم، اما اکنون که فریم ورک منتشر شده است، روی چه چیز دیگری کار می‌کنید؟ آیا چیز جدیدی از دفتر شما در راه است؟ یکی از چیزهایی که ما زمان زیادی را صرف آن می‌کنیم و بسیار هیجان زده هستیم، ارزیابی سیستم‌های هوش مصنوعی است.

ما در حال ایجاد یک برنامه ارزیابی برای درک خطرات و تأثیرات هوش مصنوعی هستیم. در عملیاتی‌سازی هوش مصنوعی RMF، ما به سازمان‌ها و نهادها کمک می‌کنیم تا پروفایل‌هایی بسازند و در واقع شروع به استفاده از مدیریت ریسک در حوزه‌های مختلف کنند. الهام طبسی ادامه داد که : ابتکار دیگری که در ژوئن راه‌اندازی کردیم، توسعه یک نمایه بین‌بخشی RMF برای مدیریت ریسک سیستم‌های هوش مصنوعی مولد بود.

هوش مصنوعی RMF در ژانویه منتشر شد و سپس ChatGPT 3.5 در نوامبر و ChatGPT 4 در فوریه منتشر شد. اولین سوالی که ما گرفتیم این است که آیا هوش مصنوعی RMF برای ChatGPT و هوش مصنوعی مولد قابل استفاده است یا خیر و پاسخ مثبت است. بنابراین ما یک گروه کاری عمومی هوش مصنوعی مولد را راه‌اندازی کردیم تا راهنمایی‌های خاصی برای مدیریت ریسک سیستم‌های هوش مصنوعی مولد ایجاد کنیم.

چیزی که اکنون به آن می‌پردازیم راهنمایی در مورد چگونگی انجام تأیید و اعتبار سنجی نسخه اولیه مدل است. بنابراین صحبت‌های زیادی در مورد تیم قرمز انجام می‌شود و تلاش می‌شود تا سختی و قدرت علمی و فنی را به آن وارد کند. تیم قرمز فرآیندی برای آزمایش هوش مصنوعی برای یافتن نادرستی‌ها و جهت‌گیری‌های موجود در آن است.

حوزه دیگر راهنمایی برای منشأ محتوای دیجیتال است. بنابراین هنگامی که یک قطعه محتوا، تصویر، متن را می‌بینید، چگونه متوجه می‌شوید که توسط هوش مصنوعی تولید شده است یا خیر؟ هر مدیریت ریسک با حاکمیت شروع و به حاکمیت ختم می‌شود. و سپس افشای رویداد است که داشتن مجموعه‌ای از حوادث و آسیب‌پذیری‌ها است که می‌تواند به گسترش دانش هوش مصنوعی، آسیب‌پذیری‌ها و حوادث برای جامعه پژوهش و توسعه‌دهنده کمک کند.

علم و فناوری، از جمله هوش مصنوعی، به طور سنتی تحت سلطه مردان است. کنجکاوم به جوانان و به ویژه زنانی که می‌خواهند مانند شما وارد این نوع کار شوند، چه می‌گویید؟ خانم الهام طبسی در پاسخ به آخرین سوال تایمز گفت: تمام دوران تحصیلم در دانشگاه، یکی از معدود دختران کلاس بودم. من به آنها چه بگویم؟ من به آنها می‌گویم که آسمان هم برای شما نباید حد باشد. پس رویای بزرگ داشته باشید، به دنبال آنچه می‌خواهید بروید. من در ایران بزرگ شدم، همانطور که به شما گفتم، زمان بسیار عجیب و غریب و مکان عجیبی برای بزرگ شدن دختری علاقه‌مند به ریاضی و علوم بود. پدرم همیشه به ما می‌گفت تا زمانی که بیشترین تلاش خود را بکنید، هیچ چیز غیر ممکن نیست.

نظر شما در مورد مصاحبه خانم الهام طبسی چیست؟ شما هم همین حالا می‌توانید از هوش مصنوعی مولد با زبان فارسی استفاده کنید. زیگپ اولین دستیار هوش مصنوعی مولد ایرانی است. پس تا دیر شده نشده شما هم اپلیکیشن زیگپ را دانلود کنید و وارد دنیای هوش مصنوعی شوید. در ضمن با زیگپ می‌توانید به آسانی و با زبان فارسی از ChatGPT و سرویس تبدیل متن به تصویر لئوناردو استفاده کنید.

نوید رضایی
نوید رضایی