هوش مصنوعی بشریت

هوش مصنوعی بشریت را نابود نمی‌کند؛ مگر به دستور ما!

سرفصل‌های مقاله

به گفته «ایلیا پولوسوکین» یکی از بنیان‌گذاران Near Protocol و یکی از خالقان فناوری ترانسفورماتورهای مبتنی بر سیستم‌های هوش مصنوعی مدرن، بعید است که سیستم‌های هوش مصنوعی بشریت را نابود کنند، مگر این‌که به طور صریح برای انجام این کار برنامه‌ریزی شده باشند.

در مصاحبه اخیر با CNBC، پولوسوکین، که بخشی از تیم گوگل بود که معماری ترانسفورماتور را در سال 2017 توسعه داد، بینش خود را در مورد وضعیت فعلی هوش مصنوعی، خطرات بالقوه آن و تحولات آینده به اشتراک گذاشت. او بر اهمیت درک هوش مصنوعی به عنوان یک سیستم با اهداف تعریف‌شده و نه به عنوان یک موجودیت حساس تاکید کرد.

پولوسوکین گفت: «هوش مصنوعی یک انسان نیست، یک سیستم است. و این سیستم یک هدف دارد.مگر این‌که کسی برود و بگوید، “بیایید همه انسان‌ها را بکشیم”… هوش مصنوعی نمی‌رود سرخود به شکل جادویی این کار را انجام دهد.»

cta-gif-album-m
cta-gif-album

او توضیح داد که علاوه بر این‌که هوش مصنوعی برای این منظور آموزش نمی‌بیند، یک هوش مصنوعی این کار را انجام نمی‌دهد زیرا – به نظر او – انگیزه اقتصادی برای دستیابی به آن هدف ندارد.

پولوسوکین گفت: «در دنیای بلاک‌چین، متوجه می‌شوید که همه چیز به هر طریقی توسط اقتصاد هدایت می‌شود. بنابراین هیچ اقتصادی وجود ندارد که شما را به کشتن انسان‌ها سوق دهد.»

هوش مصنوعی بشریت را نابود نمی‌کند

هوش مصنوعی بشریت

البته این بدان معنا نیست که از هوش مصنوعی نمی‌توان برای این منظور استفاده کرد. در عوض، او به این واقعیت اشاره می‌کند که یک هوش مصنوعی به طور مستقل تصمیم نمی‌گیرد که نابود کردن انسان‌ها یک اقدام مناسب است.

او تصریح کرد: «اگر کسی از هوش مصنوعی برای شروع ساخت سلاح‌های بیولوژیکی استفاده کند، تفاوتی با تلاش انسان برای ساخت سلاح‌های بیولوژیکی بدون هوش مصنوعی ندارد. در وهله اول این انسان‌ها هستند که جنگ‌ها را آغاز می کنند، نه هوش مصنوعی.»

همه محققان هوش مصنوعی با خوش بینی پولوسوکین موافق نیستند. «پل کریستیانو» رئیس سابق تیم هم‌ترازی مدل زبان در OpenAI که اکنون مرکز تحقیقات Alignment را رهبری می‌کند، هشدار داده است که بدون هم‌ترازی دقیق – اطمینان از پیروی از دستورالعمل‌های مورد نظر هوش مصنوعی – هوش مصنوعی می‌تواند فریب دادن انسان را در طول ارزیابی‌ها بیاموزد.

او توضیح داد که یک هوش مصنوعی می‌تواند در طول ارزیابی‌ها دروغ گفتن را «یاد بگیرد» که اگر بشریت وابستگی خود را به سیستم‌های هوش مصنوعی افزایش دهد، به طور بالقوه منجر به یک نتیجه فاجعه‌بار خواهد شد.

او در پادکست بانک‌لس گفت: «من فکر می‌کنم شاید ۱۰ تا ۲۰ درصد احتمال تسلط هوش مصنوعی وجود داشته باشد و تعداد زیادی آدم بمیرند. من این خطر را کاملا جدی می‌گیرم.»

یکی دیگر از چهره‌های مهم در اکوسیستم کریپتو، «ویتالیک بوترین» که یکی از بنیان‌گذاران اتریوم است، نسبت به رویکردهای شتاب‌گرایی موثر (e/acc) برای آموزش هوش مصنوعی هشدار داد که بر توسعه فناوری بیش از هر چیز دیگری تمرکز می‌کند و سودآوری را ورای مسئولیت‌پذیری می‌گذارد. 

بوترین در ماه می در توییتی در پاسخ به «رایان سلکیس» مدیرعامل «مساری» نوشت: هوش مصنوعی فوق‌هوشمند بسیار مخاطره‌آمیز است و ما نباید در آن عجله کنیم و باید به افرادی که تلاش می‌کنند فشار بیاوریم.»

پولوسوکین در حالی که ترس از انقراض انسان توسط هوش مصنوعی را نادیده می‌گیرد، نگرانی‌های واقع‌بینانه‌تری در مورد تاثیر این فناوری بر جامعه را برجسته کرد. او به پتانسیل اعتیاد به سیستم‌های سرگرمی مبتنی بر هوش مصنوعی به‌عنوان موضوعی مبرم‌تر اشاره کرد و آن را به سناریوی دیستوپیایی که در فیلم «ایدیوکراسی» به تصویر کشیده شد، تشبیه کرد.

پولوسوکین هشدار داد: «سناریوی واقعی‌تر این است که ما به نوعی به دوپامین سیستم‌ها معتاد شویم. بسیاری از شرکت‌های هوش مصنوعی فقط سعی می‌کنند ما را سرگرم کنند. و هوش مصنوعی را نه برای دستیابی به پیشرفت‌های فنی واقعی، بلکه برای جذابیت بیشتر برای مردم به کار می‌گیرند.»

این مصاحبه با افکار پولوسوکین در مورد آینده روش‌های آموزش هوش مصنوعی به پایان رسید. او به پتانسیل فرایندهای آموزشی کارآمدتر و موثرتر که هوش مصنوعی را در مصرف انرژی کارآمدتر می‌کند، ابراز اعتقاد کرد.

پولوسوکین گفت: «فکر می‌کنم هوش مصنوعی ارزشش را دارد و قطعا نوآوری‌های زیادی را در فضا به ارمغان می‌آورد».

منبع : linkedin

مهران
مهران