تحقیقات توی زمینههای شیمی، زیستشناسی و علمی به طور زیادی به مدلهای هوش مصنوعی روی میآرن تا فرضیههای جدیدی رو توسعه بدن. اما معمولاً مشخص نیست که این الگوریتمها چطور به نتیجهگیریهای خودشون میرسن و تا چه حد میتونن تعمیم داده بشن.
یک مقاله از دانشگاه بن حالا درباره سوءتفاهمها در استفاده از هوش مصنوعی هشدار میده و در عین حال شرایطی رو مشخص میکنه که تحت اونها محققان میتونن به این مدلها اعتماد کنن. این مطالعه توی مجله Cell Reports Physical Science منتشر شده.
تلاقی هوش مصنوعی و علم
مدلهای یادگیری ماشین تطبیقی واقعاً قدرتمند هستن. با این حال، یه عیب دارن: چطور این مدلها به پیشبینیهاشون میرسن، معمولاً از بیرون مشخص نیست.
فرض کنین که به هوش مصنوعی تصاویری از چند هزار ماشین نشون میدین. حالا اگر یه تصویر جدید بهش نشون بدین، معمولاً میتونه به راحتی تشخیص بده که آیا این تصویر هم ماشین هست یا نه. اما چرا؟ آیا واقعاً یاد گرفته که ماشین چهار چرخ، شیشه جلو و اگزوز داره؟ یا تصمیمش بر اساس معیارهایی هست که واقعاً بیربط هستن – مثلاً آنتن روی سقف؟ اگر اینطور باشه، میتونه یه رادیو رو هم به عنوان ماشین شناسایی کنه؟

مدلهای هوش مصنوعی جعبههای سیاه هستن
“مدلهای هوش مصنوعی جعبههای سیاه هستن” اینو پروفسور دکتر یورگن باجوراث میگه. “به همین خاطر، نباید به نتایجشون به طور کورکورانه اعتماد کرد و ازشون نتیجهگیری کرد.” این کارشناس شیمی محاسباتی، رئیس بخش هوش مصنوعی در علوم زیستی در موسسه لامار برای یادگیری ماشین و هوش مصنوعی هست.
او همچنین مسئول برنامه اطلاعات زیستی در مرکز بینالمللی فناوری اطلاعات بن-آخن (b-it) در دانشگاه بن هست. توی این مقاله، او بررسی کرده که کی میشه به الگوریتمها اعتماد کرد و برعکس، کی نه.
مفهوم “توضیحپذیری” توی زمینه علم نقش مهمی داره. به طور استعاری، این به تلاشها در تحقیقات هوش مصنوعی اشاره داره که میخوان یه روزنه به داخل جعبه سیاه بزنن. الگوریتم باید معیارهایی رو که به عنوان مبنا استفاده میکنه – چهار چرخ یا آنتن – نشون بده. “باز کردن جعبه سیاه الان یه موضوع مرکزی توی تحقیقات هوش مصنوعی هست” باجوراث میگه. “برخی از مدلهای هوش مصنوعی به طور خاص برای قابل فهمتر کردن نتایج دیگران توسعه داده شدن.”
توضیحپذیری فقط یه جنبه علمی هست – سوال اینه که چه نتیجهگیریهایی ممکنه از معیارهای تصمیمگیری انتخاب شده توسط یک مدل به دست بیاد. اگر الگوریتم نشون بده که تصمیمش رو بر اساس آنتن گرفته، یه انسان فوراً میدونه که این ویژگی برای شناسایی ماشینها مناسب نیست. با این حال، مدلهای تطبیقی معمولاً برای شناسایی همبستگیها در مجموعههای بزرگ داده استفاده میشن که ممکنه انسانها حتی متوجهشون نشن. ما مثل بیگانههایی هستیم که نمیدونیم چه چیزی ماشین رو میسازه: یه بیگانه نمیتونه بگه آیا آنتن معیار خوبی هست یا نه.
مدلهای زبانی شیمیایی ترکیبات جدید رو پیشنهاد میدن
“یه سوال دیگهای هم هست که همیشه باید وقتی از روشهای هوش مصنوعی توی علم استفاده میکنیم از خودمون بپرسیم” باجوراث تأکید میکنه، که همچنین عضو حوزه تحقیقاتی بینرشتهای (TRA) “مدلسازی” هست: “نتایج چقدر قابل تفسیر هستن؟” مدلهای زبانی شیمیایی الان موضوع داغی توی شیمی و تحقیقات دارویی هستن.
مثلاً میشه بهشون مولکولهایی با فعالیت زیستی خاصی رو داد. بر اساس این دادهها، مدل یاد میگیره و ایدهآل اینه که یه مولکول جدید رو پیشنهاد بده که این فعالیت رو داره اما ساختار جدیدی داره. این به عنوان مدلسازی تولیدی هم شناخته میشه. اما معمولاً مدل نمیتونه توضیح بده چرا به این نتیجه رسیده. اغلب لازم میشه که بعداً از روشهای هوش مصنوعی قابل توضیح استفاده بشه.
با این حال، باجوراث درباره تفسیر بیش از حد این توضیحات هشدار میده، یعنی اینکه انتظار نداشته باشیم ویژگیهایی که هوش مصنوعی مهم میدونه واقعاً باعث فعالیت مورد نظر میشن. “مدلهای هوش مصنوعی فعلی اساساً هیچ چیزی درباره شیمی نمیدونن” میگه. اونها به طور خالص آماری و همبستگی هستن و به هر ویژگی متمایزی توجه میکنن، فارغ از اینکه آیا این ویژگیها ممکنه از نظر شیمیایی یا زیستی مرتبط باشن یا نه.
با این حال، ممکنه که در ارزیابیشون هم درست باشن – پس شاید مولکول پیشنهادی قابلیتهای مورد نظر رو داشته باشه. اما دلایل این ممکنه کاملاً متفاوت از چیزی باشه که ما بر اساس دانش یا شهود شیمیایی انتظار داریم. برای ارزیابی علّیت بالقوه بین ویژگیهایی که پیشبینیها و نتایج فرآیندهای طبیعی رو هدایت میکنن، معمولاً نیاز به آزمایشها هست: محققان باید مولکول رو سنتز و آزمایش کنن، همچنین سایر مولکولها با موتیف ساختاری که هوش مصنوعی مهم میدونه.

بررسیهای قابلیتپذیری مهم هستن
این آزمایشها زمانبر و پرهزینه هستن. بنابراین باجوراث درباره تفسیر بیش از حد نتایج هوش مصنوعی در جستجوی روابط علّی علمی معقول هشدار میده. به نظر او، بررسی قابلیتپذیری بر اساس یک منطق علمی معتبر اهمیت حیاتی داره: آیا ویژگیای که هوش مصنوعی قابل توضیح پیشنهاد میده واقعاً میتونه مسئول خاصیت شیمیایی یا زیستی مورد نظر باشه؟
آیا ارزش داره که به پیشنهاد هوش مصنوعی پرداخته بشه؟ یا اینکه احتمالاً یه پدیده تصادفی هست، مثل همبستگی تصادفی که به آنتن ماشین مربوط میشه و اصلاً برای عملکرد واقعی مرتبط نیست؟
این دانشمند تأکید میکنه که استفاده از الگوریتمهای تطبیقی به طور بنیادی پتانسیل پیشرفت قابل توجهی در بسیاری از زمینههای علمی داره. با این حال، باید از نقاط قوت این رویکردها آگاه بود – و به خصوص از نقاط ضعفشون.
منبع : chemeurope