به گفته «ایلیا پولوسوکین» یکی از بنیانگذاران Near Protocol و یکی از خالقان فناوری ترانسفورماتورهای مبتنی بر سیستمهای هوش مصنوعی مدرن، بعید است که سیستمهای هوش مصنوعی بشریت را نابود کنند، مگر اینکه به طور صریح برای انجام این کار برنامهریزی شده باشند.
در مصاحبه اخیر با CNBC، پولوسوکین، که بخشی از تیم گوگل بود که معماری ترانسفورماتور را در سال 2017 توسعه داد، بینش خود را در مورد وضعیت فعلی هوش مصنوعی، خطرات بالقوه آن و تحولات آینده به اشتراک گذاشت. او بر اهمیت درک هوش مصنوعی به عنوان یک سیستم با اهداف تعریفشده و نه به عنوان یک موجودیت حساس تاکید کرد.
پولوسوکین گفت: «هوش مصنوعی یک انسان نیست، یک سیستم است. و این سیستم یک هدف دارد.مگر اینکه کسی برود و بگوید، “بیایید همه انسانها را بکشیم”… هوش مصنوعی نمیرود سرخود به شکل جادویی این کار را انجام دهد.»
او توضیح داد که علاوه بر اینکه هوش مصنوعی برای این منظور آموزش نمیبیند، یک هوش مصنوعی این کار را انجام نمیدهد زیرا – به نظر او – انگیزه اقتصادی برای دستیابی به آن هدف ندارد.
پولوسوکین گفت: «در دنیای بلاکچین، متوجه میشوید که همه چیز به هر طریقی توسط اقتصاد هدایت میشود. بنابراین هیچ اقتصادی وجود ندارد که شما را به کشتن انسانها سوق دهد.»
هوش مصنوعی بشریت را نابود نمیکند
البته این بدان معنا نیست که از هوش مصنوعی نمیتوان برای این منظور استفاده کرد. در عوض، او به این واقعیت اشاره میکند که یک هوش مصنوعی به طور مستقل تصمیم نمیگیرد که نابود کردن انسانها یک اقدام مناسب است.
او تصریح کرد: «اگر کسی از هوش مصنوعی برای شروع ساخت سلاحهای بیولوژیکی استفاده کند، تفاوتی با تلاش انسان برای ساخت سلاحهای بیولوژیکی بدون هوش مصنوعی ندارد. در وهله اول این انسانها هستند که جنگها را آغاز می کنند، نه هوش مصنوعی.»
همه محققان هوش مصنوعی با خوش بینی پولوسوکین موافق نیستند. «پل کریستیانو» رئیس سابق تیم همترازی مدل زبان در OpenAI که اکنون مرکز تحقیقات Alignment را رهبری میکند، هشدار داده است که بدون همترازی دقیق – اطمینان از پیروی از دستورالعملهای مورد نظر هوش مصنوعی – هوش مصنوعی میتواند فریب دادن انسان را در طول ارزیابیها بیاموزد.
او توضیح داد که یک هوش مصنوعی میتواند در طول ارزیابیها دروغ گفتن را «یاد بگیرد» که اگر بشریت وابستگی خود را به سیستمهای هوش مصنوعی افزایش دهد، به طور بالقوه منجر به یک نتیجه فاجعهبار خواهد شد.
او در پادکست بانکلس گفت: «من فکر میکنم شاید ۱۰ تا ۲۰ درصد احتمال تسلط هوش مصنوعی وجود داشته باشد و تعداد زیادی آدم بمیرند. من این خطر را کاملا جدی میگیرم.»
یکی دیگر از چهرههای مهم در اکوسیستم کریپتو، «ویتالیک بوترین» که یکی از بنیانگذاران اتریوم است، نسبت به رویکردهای شتابگرایی موثر (e/acc) برای آموزش هوش مصنوعی هشدار داد که بر توسعه فناوری بیش از هر چیز دیگری تمرکز میکند و سودآوری را ورای مسئولیتپذیری میگذارد.
بوترین در ماه می در توییتی در پاسخ به «رایان سلکیس» مدیرعامل «مساری» نوشت: هوش مصنوعی فوقهوشمند بسیار مخاطرهآمیز است و ما نباید در آن عجله کنیم و باید به افرادی که تلاش میکنند فشار بیاوریم.»
پولوسوکین در حالی که ترس از انقراض انسان توسط هوش مصنوعی را نادیده میگیرد، نگرانیهای واقعبینانهتری در مورد تاثیر این فناوری بر جامعه را برجسته کرد. او به پتانسیل اعتیاد به سیستمهای سرگرمی مبتنی بر هوش مصنوعی بهعنوان موضوعی مبرمتر اشاره کرد و آن را به سناریوی دیستوپیایی که در فیلم «ایدیوکراسی» به تصویر کشیده شد، تشبیه کرد.
پولوسوکین هشدار داد: «سناریوی واقعیتر این است که ما به نوعی به دوپامین سیستمها معتاد شویم. بسیاری از شرکتهای هوش مصنوعی فقط سعی میکنند ما را سرگرم کنند. و هوش مصنوعی را نه برای دستیابی به پیشرفتهای فنی واقعی، بلکه برای جذابیت بیشتر برای مردم به کار میگیرند.»
این مصاحبه با افکار پولوسوکین در مورد آینده روشهای آموزش هوش مصنوعی به پایان رسید. او به پتانسیل فرایندهای آموزشی کارآمدتر و موثرتر که هوش مصنوعی را در مصرف انرژی کارآمدتر میکند، ابراز اعتقاد کرد.
پولوسوکین گفت: «فکر میکنم هوش مصنوعی ارزشش را دارد و قطعا نوآوریهای زیادی را در فضا به ارمغان میآورد».
منبع : linkedin