[vc_row][vc_column][vc_column_text]نزدیک به پنج سال پیش، موسسه ملی استاندارد و فناوری ایالات متحده (NIST) شروع به ساخت برنامهای برای پیشبرد توسعه سیستمهای هوش مصنوعی قابل اعتماد و مسئولیتپذیر کرد. الهام طبسی، مهندس برق و رئیس کارکنان آزمایشگاه فناوری اطلاعات این مؤسسه بود که گفتوگو درباره تأثیر هوش مصنوعی را از اصول به اجرای عملی سیاستها انتقال داد.
پیشنهاد او به طور قابل توجهی نتیجه بخش بود. پس از شروع تحقیقات تیم طبسی در مورد امنیت هوش مصنوعی، کنگره NIST (بخشی از وزارت بازرگانی) را موظف کرد تا چارچوب مدیریت ریسک داوطلبانه را برای سیستمهای هوش مصنوعی قابل اعتماد به عنوان بخشی از قانون مجوز دفاع ملی (NDAA) در سال ۲۰۲۱ ایجاد کند.
الهام طبسی در ژانویه ۲۰۲۳ از چارچوب نهایی طراحی شده برای کمک به کاربران و توسعهدهندگان هوش مصنوعی در تجزیه و تحلیل و رسیدگی به خطرات مرتبط با سیستمهای هوش مصنوعی و در عین حال ارائه دستورالعملهای عملی برای رسیدگی و به حداقل رساندن چنین خطراتی، پرده برداری کرد.[/vc_column_text][vc_btn title=”تولید محتوای فارسی با هوش مصنوعی” style=”3d” color=”primary” align=”center” link=”url:https%3A%2F%2Fzigap.ir/content-production-with-artificial-intelligence%2F|target:_blank”][/vc_column][/vc_row]
الهام طبسی کیست؟

الهام طبسی که در دوران انقلاب و جنگ در ایران به دنیا آمده و بزرگ شده است، میگوید همیشه آرزوی دانشمند شدن را داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST در پروژههای مختلف یادگیری ماشینی و بینایی کامپیوتر با برنامههای کاربردی در ارزیابی بیومتریک و استانداردها شروع به کار کرد.
او در اوایل کار خود، معمار اصلی کیفیت تصویر اثر انگشت NIST (NFIQ) بود، که اکنون یک استاندارد بینالمللی برای اندازهگیری کیفیت تصویر اثر انگشت است که توسط FBI و وزارت امنیت داخلی به کار گرفته شده است. در ادامه مصاحبه مجله تایم با او را خواهیم داشت. (این مصاحبه خلاصه و ویرایش شده است.)
مصاحبه مجله تایم با الهام طبسی
آیا میتوانید در مورد چارچوب مدیریت ریسک هوش مصنوعی (RMF) و هدف توسعه آن را بگویید؟ آیا این اولین AI RMF ایجاد شده است؟ اولین RMF ساخته شده توسط NIST است. این بهروزرسانی به موارد قبلی نیست. بنابراین هوش مصنوعی برای ما در NIST جدید نیست. برنامه Trustworthy Responsible AI توسط NIST در سالهای 2018-2019 پس از پیشرفت در یادگیری عمیق گردآوری شد.
بسیاری از سازمانها و شرکتها در حال ساختن یک برنامه هوش مصنوعی هدفمندتر بودند و تلاشهای زیادی برای ایجاد هوش مصنوعی اخلاقی، مسئولیتپذیر و قابل اعتماد صورت گرفت. بنابراین زمانی که ما در حال ساختن این برنامه بودیم، یک فرآیند رقابتی وجود داشت، و چشماندازی که من ارائه کردم این بود که از اصول به عمل برویم، و اجزای سازنده اصول قابل اعتماد، مسئولیتپذیر و اخلاقی را کشف کنیم.
ما تمام تلاشهای تحقیقاتی خود را برای توسعه هوش مصنوعی RMF انجام دادیم و فرآیندی باز، شفاف و فراگیر را راهاندازی کردیم و عمداً نه تنها با توسعهدهندگان فناوری، دانشمندان رایانه، ریاضیدانان، آماردانها و مهندسانی مانند خودم، بلکه با وکلای دادگستری، روانشناسان، جامعه شناسان، دانشمندان علوم شناختی و فیلسوفان هم مشاوره کردیم. ما جلسات گوش دادن زیادی را برای شنیدن در مورد فناوری هوش مصنوعی، نحوه ساخت آن و همچنین افرادی که تحت تأثیر قرار میگیرند، برگزار کردیم و این موارد در توسعه بسیار مفید بودند.
شما گفتید که این چارچوب داوطلبانه است و برای آژانسها و سازمانها در نظر گرفته شده است تا از آن برای تجزیه و تحلیل خطرات مرتبط با هوش مصنوعی استفاده کنند. آیا آژانسها و سازمانها از زمان انتشار چارچوب در ژانویه از آن استفاده کردهاند؟ هر روز در مورد یک آژانس یا نهاد جدیدی که از آن استفاده میکند مطلع می شویم. ما واقعاً سازمانها را تشویق میکنیم تا به ما اطلاع دهند که چگونه از آن استفاده میکنند، زیرا اندازهگیری اثربخشی RMF برای من بسیار مهم است.
اندازهگیری نحوه استفاده از یک ابزار داوطلبانه بسیار دشوار است، اما این یک موضوع مهم است. من اجازه نام بردن از شرکتهایی که از آن استفاده میکنند را ندارم، اما بگذارید اینطور بیان کنیم: مایکروسافت طرحی را برای هوش مصنوعی مسئول قابل اعتماد منتشر کرد که گفته بود از هوش مصنوعی RMF NIST استفاده میکند. آنها گفتند که رویههای داخلی خود را هماهنگ کردهاند و از هوش مصنوعی RMF استفاده میکنند.
ما از سازمانهای دیگر و در داخل دولت نیز چنین چیزهایی شنیدهایم. بنابراین یکی از چیزهایی که در مورد هوش مصنوعی RMF وجود دارد این است که مخاطبان آن بسیار گسترده هستند. این برای همه کسانی است که در حال طراحی، توسعه، استفاده و استقرار هوش مصنوعی هستند. بنابراین بخشهای مختلف، سازمانهای دولتی مختلف ایالات متحده نیز در مورد ساختن پروفایلها با ما صحبت میکنند. به عنوان مثال، وزارت کار در حال ایجاد نمایهای از مدیریت ریسک هوش مصنوعی است.
بخش کلیدی چارچوب این رویکرد مبتنی بر ریسک است. ما بسیاری از بخشها را دیدهایم که این کار را انجام میدهند، اما به من بگویید چرا اتخاذ رویکرد مبتنی بر ریسک برای هوش مصنوعی منطقی است؟ من فکر میکنم یک رویکرد مبتنی بر ریسک برای بسیاری از بخشهای فناوری، از جمله هوش مصنوعی، منطقی است. بنابراین یک اقدام تجویزی بسیار محدود کننده خواهد بود که مشکلات را حل نمیکند، برای هدف مناسب نیست و همچنین میتواند نوآوری را خفه کند.
الهام طبسی ادامه داد مثال بسیار بدی که من همیشه از آن استفاده میکنم این است که اگر از تشخیص چهره برای باز کردن قفل تلفن خود در مقابل تشخیص چهره که توسط مجریان قانون استفاده میشود، استفاده کنیم، میبینید که سطح خطر بسیار متفاوتی وجود دارد.
بنابراین با این چارچوب، به نظر میرسد که NIST در تلاش برای حذف خطرات ناشی از هوش مصنوعی نیست، بلکه سعی میکند آن خطرات را شناسایی و مدیریت کند. درسته؟ ما که در ساخت مدل و کار در علم و فناوری کامپیوتر هستیم، همیشه میگوییم خطای صفر وجود ندارد. ما سعی کردهایم ریسک را به حداقل برسانیم، اما نمیتوانیم سیستمهایی بسازیم که ریسک صفر دارند.
درعوض، آنچه باید انجام شود، درک ریسکهای موجود، اولویتبندی آن ریسکها و درک تعاملات بین آن ریسکها است. یکی از کمکهای مهم هوش مصنوعی RMF این بود که ساختاری برای گفتگوهای مربوط به ریسک هوش مصنوعی و مدیریت ریسک هوش مصنوعی ارائه میدهد و نوعی واژگان قابل همکاری برای صحبت در مورد آن ارائه میدهد. هر واحد تجاری باید ریسک پذیری خود را بداند، ریسکهای موجود را درک کند، مبادلات و تعاملات بین آنها را تفسیر کند و راهحلی ارائه دهد.
ایالات متحده مجموعهای رسمی از قوانین برای نحوه تنظیم هوش مصنوعی در بخش خصوصی ندارد. در همین حال اتحادیه اروپا در حال کار بر روی آن است. گامهای بعدی در مقررات هوش مصنوعی در ایالات متحده چیست؟ در پاسخ به این سوال الهام طبسی گفت: ما قطعاً باید استحکام فنی را به وجود آوریم تا قوانینی داشته باشیم که قابل اجرا و شفاف باشند.
به عنوان مثال، بگوییم ایمنی هوش مصنوعی یا هوش مصنوعی پاسخگو، واقعاً به چه معناست؟ نظر شخصی من این است که مجموعه مناسبی از نردههای محافظ برای هوش مصنوعی ترکیبی که نوعی قابلیت همکاری و یکنواختی را برای درک، مدیریت و اندازهگیری ریسک در حوزههای مختلف به ارمغان میآورد.
امید من این است که هوش مصنوعی و همه این پیشرفتها واقعاً بتواند برخی از بزرگترین چالشهای زمانه ما را حل کند. از پزشکی گرفته تا آب و هوا. من همیشه به دوستان و همکارانم میگویم که مراقبت از والدین سالخورده به اندازه بزرگشدن فرزندانمان رضایت بخش است. من پدر و مادرم را به دلیل یک بیماری نادر از دست دادم، اما ما میتوانیم برای آن راه حل داشته باشیم.
میدانم که ما در مورد RMF زیاد صحبت کردهایم، اما اکنون که فریم ورک منتشر شده است، روی چه چیز دیگری کار میکنید؟ آیا چیز جدیدی از دفتر شما در راه است؟ یکی از چیزهایی که ما زمان زیادی را صرف آن میکنیم و بسیار هیجان زده هستیم، ارزیابی سیستمهای هوش مصنوعی است.
ما در حال ایجاد یک برنامه ارزیابی برای درک خطرات و تأثیرات هوش مصنوعی هستیم. در عملیاتیسازی هوش مصنوعی RMF، ما به سازمانها و نهادها کمک میکنیم تا پروفایلهایی بسازند و در واقع شروع به استفاده از مدیریت ریسک در حوزههای مختلف کنند. الهام طبسی ادامه داد که : ابتکار دیگری که در ژوئن راهاندازی کردیم، توسعه یک نمایه بینبخشی RMF برای مدیریت ریسک سیستمهای هوش مصنوعی مولد بود.
هوش مصنوعی RMF در ژانویه منتشر شد و سپس ChatGPT 3.5 در نوامبر و ChatGPT 4 در فوریه منتشر شد. اولین سوالی که ما گرفتیم این است که آیا هوش مصنوعی RMF برای ChatGPT و هوش مصنوعی مولد قابل استفاده است یا خیر و پاسخ مثبت است. بنابراین ما یک گروه کاری عمومی هوش مصنوعی مولد را راهاندازی کردیم تا راهنماییهای خاصی برای مدیریت ریسک سیستمهای هوش مصنوعی مولد ایجاد کنیم.
چیزی که اکنون به آن میپردازیم راهنمایی در مورد چگونگی انجام تأیید و اعتبار سنجی نسخه اولیه مدل است. بنابراین صحبتهای زیادی در مورد تیم قرمز انجام میشود و تلاش میشود تا سختی و قدرت علمی و فنی را به آن وارد کند. تیم قرمز فرآیندی برای آزمایش هوش مصنوعی برای یافتن نادرستیها و جهتگیریهای موجود در آن است.
حوزه دیگر راهنمایی برای منشأ محتوای دیجیتال است. بنابراین هنگامی که یک قطعه محتوا، تصویر، متن را میبینید، چگونه متوجه میشوید که توسط هوش مصنوعی تولید شده است یا خیر؟ هر مدیریت ریسک با حاکمیت شروع و به حاکمیت ختم میشود. و سپس افشای رویداد است که داشتن مجموعهای از حوادث و آسیبپذیریها است که میتواند به گسترش دانش هوش مصنوعی، آسیبپذیریها و حوادث برای جامعه پژوهش و توسعهدهنده کمک کند.
علم و فناوری، از جمله هوش مصنوعی، به طور سنتی تحت سلطه مردان است. کنجکاوم به جوانان و به ویژه زنانی که میخواهند مانند شما وارد این نوع کار شوند، چه میگویید؟ خانم الهام طبسی در پاسخ به آخرین سوال تایمز گفت: تمام دوران تحصیلم در دانشگاه، یکی از معدود دختران کلاس بودم. من به آنها چه بگویم؟ من به آنها میگویم که آسمان هم برای شما نباید حد باشد. پس رویای بزرگ داشته باشید، به دنبال آنچه میخواهید بروید. من در ایران بزرگ شدم، همانطور که به شما گفتم، زمان بسیار عجیب و غریب و مکان عجیبی برای بزرگ شدن دختری علاقهمند به ریاضی و علوم بود. پدرم همیشه به ما میگفت تا زمانی که بیشترین تلاش خود را بکنید، هیچ چیز غیر ممکن نیست.
نظر شما در مورد مصاحبه خانم الهام طبسی چیست؟ شما هم همین حالا میتوانید از هوش مصنوعی مولد با زبان فارسی استفاده کنید. زیگپ اولین دستیار هوش مصنوعی مولد ایرانی است. پس تا دیر شده نشده شما هم اپلیکیشن زیگپ را دانلود کنید و وارد دنیای هوش مصنوعی شوید. در ضمن با زیگپ میتوانید به آسانی و با زبان فارسی از ChatGPT و سرویس تبدیل متن به تصویر لئوناردو استفاده کنید.