هوش مصنوعی

قانون‌گذاری هوش مصنوعی در سال ۲۰۲۴ چگونه خواهد بود؟

سرفصل‌های مقاله

در سال 2023، سیاست‌ها و قانون‌گذاری هوش مصنوعی از یک موضوع خاص و عجیب به اخبار صفحه اول تبدیل شد.

 این موضوع تا حدی به لطف ظهور ChatGPT  است که باعث شد هوش مصنوعی به جریان اصلی تبدیل شود، اما همچنین مردم را با نحوه عملکرد سیستم‌های هوش مصنوعی نیز آشنا کرد.

سال قبل سال بسیار مهمی برای سیاست‌گذاری در حوزه هوش مصنوعی بود: ما شاهد اولین قانون جامع هوش مصنوعی مورد توافق در اتحادیه اروپا، جلسات استماع سنا و دستورات اجرایی در ایالات متحده و قوانین خاص در چین برای مواردی مانند الگوریتم‌های توصیه‌کننده بودیم.

اگر سال 2023 سالی بود که قانون‌گذاران بر سر یک چشم‌انداز به توافق رسیدند، سال 2024 سالی خواهد بود که سیاست‌ها به اقدامات ملموس تبدیل خواهد شد. 

در ادامه این مطلب قصد داریم آینده قانون‌گذاری هوش مصنوعی را بررسی کنیم.

قانون‌گذاری هوش مصنوعی در نقاط مختلف جهان

هوش مصنوعی
قانون‌گذاری هوش مصنوعی

ایالات متحده آمریکا

هوش مصنوعی واقعا در سال 2023 وارد گفتگوهای سیاسی در ایالات متحده شد. اما فقط محدود به بحث نماند. همچنین اقداماتی صورت گرفت که به فرمان اجرایی رئیس جمهور بایدن در مورد هوش مصنوعی در پایان اکتبر منجر شد؛ دستورالعملی گسترده که خواستار شفافیت بیشتر و استانداردهای جدید بود.

از طریق این فعالیت، ذائقه ایالات متحده نسبت به سیاست هوش مصنوعی شروع به ظهور کرد: سیاستی که دوست‌دار صنعت هوش مصنوعی است، با تاکید بر بهترین شیوه‌ها، تکیه بر آژانس‌های مختلف برای ایجاد قوانین خود، و رویکردی ظریف برای تنظیم هر بخش از صنعت. 

سال 2024 بر روی همان ریل‌های سال 2023 بنا خواهد شد و بسیاری از موارد مفصل به دستور اجرایی بایدن تصویب می‌شوند. همچنین در مورد موسسه جدید ایمنی هوش مصنوعی ایالات متحده که مسئول اجرای اکثر سیاست‌های خواسته شده در دستور است، چیزهای زیادی خواهیم شنید.

از منظر کنگره، مشخص نیست دقیقا چه اتفاقی خواهد افتاد. «چاک شومر» رهبر اکثریت سنا اخیرا هشدار داد که ممکن است قوانین جدیدی علاوه بر فرمان اجرایی بایدن نیز در راه باشد. در حال حاضر چندین پیشنهاد قانون‌گذاری در بازی وجود دارد که جنبه‌های مختلف هوش مصنوعی مانند شفافیت، عمق و پاسخگویی پلتفرم را هدف قرار داده است. اما مشخص نیست که کدام‌یک از این لوایح پیشنهادی در سال آینده مورد توجه قرار خواهد گرفت.

با این حال آن‌چه از طرف ما مورد انتظار است، رویکردی است که انواع و کاربردهای هوش مصنوعی را بر اساس میزان خطری که دارند درجه‌بندی می‌کند؛ چارچوبی مشابه قانون هوش مصنوعی اتحادیه اروپا. 

«کریس مزرول» مدیر اجرایی انجمن مدل مرزی که یک نهاد لابی صنعتی است، می‌گوید: موسسه ملی استاندارد و فناوری قبلا چنین چارچوبی را پیشنهاد کرده است که هر بخش و آژانس اکنون باید آن را عملی کند.

مورد دیگری نیز واضح است: انتخابات ریاست جمهوری ایالات متحده در سال 2024 بیشتر بحث در مورد مقررات هوش مصنوعی را رنگ‌آمیزی خواهد کرد. 

همان‌طور که تاثیر هوش مصنوعی مولد بر پلتفرم‌های رسانه‌های اجتماعی و اطلاعات نادرست را می‌بینیم، می‌توان انتظار داشت که بحث در مورد نحوه جلوگیری از آسیب‌های ناشی از این فناوری بر اساس آن‌چه در فصل انتخابات اتفاق می‌افتد شکل بگیرد.

اروپا

اتحادیه اروپا به تازگی بر سر قانون هوش مصنوعی، اولین قانون جامع هوش مصنوعی در جهان توافق کرده است.

پس از بررسی‌های فنی شدید و تایید رسمی توسط کشورهای اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال 2024، قانون هوش مصنوعی به شکل نسبتا سریعی اجرایی خواهد شد. در خوش‌بینانه‌ترین سناریو، ممنوعیت استفاده از هوش مصنوعی خاص می‌تواند در پایان سال اعمال شود.

همه این‌ها به این معنی است که سال 2024 برای بخش هوش مصنوعی سال شلوغی خواهد بود، زیرا این بخش برای پیروی از قوانین جدید آماده می‌شود. 

اگرچه اکثر برنامه‌های کاربردی هوش مصنوعی از قانون هوش مصنوعی مجوز رایگان دریافت می‌کنند، اما شرکت‌هایی که مدل‌های بنیادی و برنامه‌هایی را توسعه می‌دهند که  به عنوان «خطر بالایی» برای حقوق اساسی در نظر گرفته می‌شوند – مانند مواردی که در بخش‌هایی مانند آموزش، مراقبت‌های بهداشتی و پزشکی کار سخت‌تری برای اخذ مجوز در پیش دارند.

پلیس، باید استانداردهای جدید اتحادیه اروپا را رعایت کند. در اروپا، پلیس مجاز به استفاده از این فناوری در مکان‌های عمومی نخواهد بود، مگر این‌که ابتدا مجوز دادگاه را برای اهداف خاصی مانند مبارزه با تروریسم، جلوگیری از قاچاق انسان یا یافتن یک فرد گمشده دریافت کند.

سایر استفاده‌های هوش مصنوعی در اتحادیه اروپا به طور کامل ممنوع خواهند شد، مانند ایجاد پایگاه‌های اطلاعاتی تشخیص چهره مانند Clearview AI یا استفاده از فناوری تشخیص احساسات در محل کار یا مدرسه.

 قانون هوش مصنوعی شرکت‌ها را ملزم می‌کند که در مورد نحوه توسعه مدل‌های خود شفاف‌تر باشند و باعث می‌شود که آن‌ها و سازمان‌هایی که از سیستم‌های هوش مصنوعی پرخطر استفاده می‌کنند، در قبال آسیب‌های ناشی از آن پاسخ‌گوتر باشند.

شرکت‌هایی که مدل‌های بنیادی را توسعه می‌دهند – مدل‌هایی که سایر محصولات هوش مصنوعی مانند GPT-4 بر اساس آن‌ها استوار است – باید ظرف یک سال از زمان لازم‌الاجرا شدن قانون، از قانون پیروی کنند. سایر شرکت های فناوری دو سال فرصت دارند تا قوانین را اجرا کنند.

برای برآورده کردن الزامات جدید، شرکت‌های هوش مصنوعی باید در مورد نحوه ساخت سیستم‌های خود بیشتر متفکر باشند و کار خود را با دقت بیشتری مستند کنند تا بتوان آن را ممیزی کرد. 

این قانون شرکت‌ها را ملزم می‌کند تا در مورد نحوه آموزش مدل‌های‌شان شفاف‌تر باشند و تضمین می‌کند که سیستم‌های هوش مصنوعی که پرخطر تلقی می‌شوند با مجموعه‌های داده‌ای به اندازه کافی آموزش و آزمایش می‌شوند تا سوگیری‌ها را به حداقل برسانند.

اتحادیه اروپا معتقد است که قدرتمندترین مدل‌های هوش مصنوعی، مانند GPT- و Google’s Gemini، می‌توانند خطری «سیستمیک» برای شهروندان ایجاد کنند و بنابراین برای برآورده کردن استانداردهای اتحادیه اروپا به کار بیشتری نیاز دارند.

 شرکت‌ها باید اقداماتی را برای ارزیابی و کاهش خطرات و اطمینان از ایمن بودن سیستم‌ها انجام دهند و از آن‌ها خواسته می‌شود حوادث جدی را گزارش کرده و جزئیات مصرف انرژی خود را به اشتراک بگذارند. ارزیابی این‌که آیا مدل‌های آن‌ها به اندازه کافی قدرتمند است که در این دسته قرار بگیرد، به عهده شرکت‌ها خواهد بود.

شرکت‌های هوش مصنوعی منبع‌باز از اکثر الزامات شفافیت قانون هوش مصنوعی مستثنی هستند، مگر این‌که در حال توسعه مدل‌هایی به قدرت و اندازه GPT-4 باشند. عدم رعایت قوانین می‌تواند منجر به جریمه‌های سنگین یا باعث مسدود شدن محصولات آن‌ها در اتحادیه اروپا شود.

اتحادیه اروپا همچنین در حال کار بر روی لایحه دیگری به نام “دستورالعمل مسئولیت هوش مصنوعی است” که تضمین می‌کند افرادی که از این فناوری آسیب دیده‌اند، می‌توانند غرامت مالی دریافت کنند. مذاکرات برای این مورد در سال جاری نیز ادامه خواهد داشت.

برخی از کشورهای دیگر رویکردی دست‌نخورده‌تر دارند. به عنوان مثال، بریتانیا، خانه Google DeepMind، گفته است که قصد ندارد در کوتاه‌مدت هوش مصنوعی را قانون‌گذاری کند. با این حال، هر شرکتی خارج از اتحادیه اروپا، دومین اقتصاد بزرگ جهان، اگر بخواهد در بلوک تجاری تجارت کند، همچنان باید از قانون هوش مصنوعی پیروی کند.

«آنو بردفورد» استاد حقوق دانشگاه کلمبیا، این موضوع را «اثر بروکسل» نامیده است؛ اتحادیه اروپا با اولین قانون‌گذاری می‌تواند استانداردهای جهانی را بالفعل تعیین کند و به شیوه تجارت و توسعه فناوری جهان شکل دهد. 

اتحادیه اروپا با شیوه سخت‌گیرانه حفاظت از داده خود، GDPR، که در همه جا از کالیفرنیا تا هند کپی شده است، به موفقیت دست یافت. این اتحادیه امیدوار است که این ترفند را در مورد هوش مصنوعی تکرار کند.

چین

تاکنون مقررات هوش مصنوعی در چین به شدت پراکنده و تکه‌تکه بوده است. این کشور به جای تنظیم کلی هوش مصنوعی، هر زمان که یک محصول جدید هوش مصنوعی برجسته می‌شود، قوانین جداگانه‌ای را منتشر کرده است. 

به همین دلیل است که چین یک سری قوانین برای خدمات توصیه الگوریتمی (برنامه‌ها و موتورهای جستجوی مشابه TikTok)، قوانین دیگری برای دیپ‌فیک‌ها و قوانین دیگری برای هوش مصنوعی مولد دارد.

نقطه قوت این رویکرد این است که به پکن اجازه می‌دهد تا به سرعت به خطرات ناشی از پیشرفت‌های فناوری واکنش نشان دهد؛ هم برای کاربران و هم برای دولت. اما مشکل این است که از ایجاد یک دیدگاه بلندمدت و پانورامیک بیشتر جلوگیری می‌کند.

این رویکرد می‌تواند سال آینده تغییر کند. در ژوئن 2023 شورای دولتی چین به عنوان بالاترین نهاد حاکم، اعلام کرد که “قانون هوش مصنوعی” در دستور کار قانونی آن قرار دارد. این قانون همه چیز را پوشش می‌دهد؛ مانند قانون هوش مصنوعی اتحادیه اروپا. 

به دلیل دامنه بلندپروازانه آن، نمی‌توان گفت که روند قانون‌گذاری چقدر طول می‌کشد. ممکن است اولین پیش‌نویس را در سال 2024 ببینیم، اما ممکن است بیشتر طول بکشد. در این میان تعجب‌آور نخواهد بود اگر قانون‌گذاران اینترنت چینی، قوانین جدیدی را برای مقابله با ابزارهای جدید هوش مصنوعی یا انواع محتوایی که سال آینده ظاهر می‌شوند، معرفی کنند.

تاکنون اطلاعات بسیار کمی در مورد آن منتشر شده است، اما بررسی یک سند می تواند به ما در پیش‌بینی قانون جدید کمک کند: محققان آکادمی علوم اجتماعی چین، یک موسسه تحقیقاتی دولتی، نسخه “پیشنهاد تخصصی” از هوش مصنوعی چینی را منتشر کردند.

این سند ایجاد یک «دفتر ملی هوش مصنوعی» را برای نظارت بر توسعه هوش مصنوعی در چین پیشنهاد می‌کند، «گزارش مسئولیت اجتماعی» مستقل سالانه در مورد مدل‌های بنیادی را درخواست می‌کند، و «فهرست منفی» از حوزه‌های هوش مصنوعی با ریسک‌های بالاتر را تنظیم می‌کند که شرکت‌ها قبل از تایید دولت، حتی مجاز به «تحقیق» درباره آن هم نیستند.

در حال حاضر شرکت‌های چینی هوش مصنوعی مشمول مقررات زیادی هستند. در واقع، هر مدل پایه قبل از انتشار برای عموم چینی‌ها باید در دولت ثبت شود (تا پایان سال 2023، 22 شرکت مدل‌های هوش مصنوعی خود را ثبت کرده‌اند).

این بدان معناست که هوش مصنوعی در چین دیگر یک محیط جنگل‌وار نیست. اما نحوه اجرای دقیق این مقررات هنوز نامشخص است. در سال آینده، شرکت‌های مولد هوش مصنوعی باید تلاش کنند تا واقعیت انطباق، به ویژه در مورد بررسی‌های ایمنی و نقض IP را کشف کنند.

در عین حال، از آن‌جایی که شرکت‌های خارجی هوش مصنوعی هیچ تاییده‌ای برای عرضه محصولات خود در چین دریافت نکرده‌اند (و احتمالا در آینده هم نخواهند کرد)، محیط تجاری داخلی حاصل از شرکت‌های چینی محافظت می‌کند. 

این رویکرد ممکن است به آن‌ها کمک کند تا در برابر شرکت‌های غربی هوش مصنوعی برتری پیدا کنند، اما همچنین ممکن است رقابت را خفه کرده و کنترل حکومت چین بر گفتار آنلاین را تقویت کند.

بقیه جهان

به احتمال زیاد ما در طول سال 2024 مقررات هوش مصنوعی بیشتری را در سایر نقاط جهان در پیش خواهیم داشت. یکی از مناطقی که باید رصد کرد، آفریقاست. «ملودی موسونی» مسئول سیاست‌گذاری در مرکز اروپایی می‌گوید: اتحادیه آفریقا احتمالا در اوایل سال 2024 یک استراتژی هوش مصنوعی را برای مدیریت سیاست توسعه این قاره منتشر می‌کند تا سیاست‌هایی را ایجاد کند که کشورهای جداگانه بتوانند برای رقابت در هوش مصنوعی و محافظت از مصرف‌کنندگان آفریقایی در برابر شرکت‌های فناوری غربی استفاده کنند. 

برخی از کشورها، مانند رواندا، نیجریه و آفریقای جنوبی، پیش‌نویس استراتژی‌های هوش مصنوعی ملی را تهیه کرده‌اند و در حال توسعه برنامه‌های آموزشی، قدرت محاسباتی و سیاست‌های سازگار با صنعت برای حمایت از شرکت‌های هوش مصنوعی هستند.

 نهادهای جهانی مانند سازمان ملل متحد، OECD، G20 و اتحادهای منطقه‌ای هم شروع به ایجاد کارگروه‌ها، هیئت‌های مشاوره، اصول، استانداردها و بیانیه‌هایی در مورد هوش مصنوعی کرده‌اند. گروه‌هایی مانند OECD ممکن است در ایجاد یکپارچگی نظارتی در مناطق مختلف مفید باشند، که می‌تواند بار انطباق را برای شرکت‌های هوش مصنوعی کاهش دهد.

از نظر ژئوپلیتیکی، ما احتمالا شاهد تفاوت‌های فزاینده‌ای بین این‌که چگونه کشورهای دموکراتیک و مستبد، صنایع هوش مصنوعی خود را پرورش می‌دهند و به سلاح تبدیل می‌کنند، خواهیم بود. جالب است که ببینیم شرکت‌های هوش مصنوعی در سال 2024 تا چه حد توسعه جهانی یا تخصص داخلی را در اولویت قرار می‌دهند. ممکن است مجبور شوند تصمیمات سختی بگیرند.

مهران
مهران