تلاقی هوش مصنوعی و علم

علم چگونه می‌تواند از هوش مصنوعی بهره مند شود؟

فهرست مطالب

تحقیقات توی زمینه‌های شیمی، زیست‌شناسی و علمی به طور زیادی به مدل‌های هوش مصنوعی روی می‌آرن تا فرضیه‌های جدیدی رو توسعه بدن. اما معمولاً مشخص نیست که این الگوریتم‌ها چطور به نتیجه‌گیری‌های خودشون می‌رسن و تا چه حد می‌تونن تعمیم داده بشن.

یک مقاله از دانشگاه بن حالا درباره سوءتفاهم‌ها در استفاده از هوش مصنوعی هشدار می‌ده و در عین حال شرایطی رو مشخص می‌کنه که تحت اون‌ها محققان می‌تونن به این مدل‌ها اعتماد کنن. این مطالعه توی مجله Cell Reports Physical Science منتشر شده.

تلاقی هوش مصنوعی و علم

تلاقی هوش مصنوعی و علم

مدل‌های یادگیری ماشین تطبیقی واقعاً قدرت‌مند هستن. با این حال، یه عیب دارن: چطور این مدل‌ها به پیش‌بینی‌هاشون می‌رسن، معمولاً از بیرون مشخص نیست.

فرض کنین که به هوش مصنوعی تصاویری از چند هزار ماشین نشون می‌دین. حالا اگر یه تصویر جدید بهش نشون بدین، معمولاً می‌تونه به راحتی تشخیص بده که آیا این تصویر هم ماشین هست یا نه. اما چرا؟ آیا واقعاً یاد گرفته که ماشین چهار چرخ، شیشه جلو و اگزوز داره؟ یا تصمیمش بر اساس معیارهایی هست که واقعاً بی‌ربط هستن – مثلاً آنتن روی سقف؟ اگر اینطور باشه، می‌تونه یه رادیو رو هم به عنوان ماشین شناسایی کنه؟

مدل‌های هوش مصنوعی جعبه‌های سیاه هستن

“مدل‌های هوش مصنوعی جعبه‌های سیاه هستن” اینو پروفسور دکتر یورگن باجوراث می‌گه. “به همین خاطر، نباید به نتایجشون به طور کورکورانه اعتماد کرد و ازشون نتیجه‌گیری کرد.” این کارشناس شیمی محاسباتی، رئیس بخش هوش مصنوعی در علوم زیستی در موسسه لامار برای یادگیری ماشین و هوش مصنوعی هست.

او همچنین مسئول برنامه اطلاعات زیستی در مرکز بین‌المللی فناوری اطلاعات بن-آخن (b-it) در دانشگاه بن هست. توی این مقاله، او بررسی کرده که کی می‌شه به الگوریتم‌ها اعتماد کرد و برعکس، کی نه.

مفهوم “توضیح‌پذیری” توی زمینه علم نقش مهمی داره. به طور استعاری، این به تلاش‌ها در تحقیقات هوش مصنوعی اشاره داره که می‌خوان یه روزنه به داخل جعبه سیاه بزنن. الگوریتم باید معیارهایی رو که به عنوان مبنا استفاده می‌کنه – چهار چرخ یا آنتن – نشون بده. “باز کردن جعبه سیاه الان یه موضوع مرکزی توی تحقیقات هوش مصنوعی هست” باجوراث می‌گه. “برخی از مدل‌های هوش مصنوعی به طور خاص برای قابل فهم‌تر کردن نتایج دیگران توسعه داده شدن.”

توضیح‌پذیری فقط یه جنبه‌ علمی هست – سوال اینه که چه نتیجه‌گیری‌هایی ممکنه از معیارهای تصمیم‌گیری انتخاب شده توسط یک مدل به دست بیاد. اگر الگوریتم نشون بده که تصمیمش رو بر اساس آنتن گرفته، یه انسان فوراً می‌دونه که این ویژگی برای شناسایی ماشین‌ها مناسب نیست. با این حال، مدل‌های تطبیقی معمولاً برای شناسایی همبستگی‌ها در مجموعه‌های بزرگ داده استفاده می‌شن که ممکنه انسان‌ها حتی متوجهشون نشن. ما مثل بیگانه‌هایی هستیم که نمی‌دونیم چه چیزی ماشین رو می‌سازه: یه بیگانه نمی‌تونه بگه آیا آنتن معیار خوبی هست یا نه.

مدل‌های زبانی شیمیایی ترکیبات جدید رو پیشنهاد می‌دن

“یه سوال دیگه‌ای هم هست که همیشه باید وقتی از روش‌های هوش مصنوعی توی علم استفاده می‌کنیم از خودمون بپرسیم” باجوراث تأکید می‌کنه، که همچنین عضو حوزه تحقیقاتی بین‌رشته‌ای (TRA) “مدل‌سازی” هست: “نتایج چقدر قابل تفسیر هستن؟” مدل‌های زبانی شیمیایی الان موضوع داغی توی شیمی و تحقیقات دارویی هستن.

مثلاً می‌شه بهشون مولکول‌هایی با فعالیت زیستی خاصی رو داد. بر اساس این داده‌ها، مدل یاد می‌گیره و ایده‌آل اینه که یه مولکول جدید رو پیشنهاد بده که این فعالیت رو داره اما ساختار جدیدی داره. این به عنوان مدل‌سازی تولیدی هم شناخته می‌شه. اما معمولاً مدل نمی‌تونه توضیح بده چرا به این نتیجه رسیده. اغلب لازم میشه که بعداً از روش‌های هوش مصنوعی قابل توضیح استفاده بشه.

با این حال، باجوراث درباره تفسیر بیش از حد این توضیحات هشدار می‌ده، یعنی اینکه انتظار نداشته باشیم ویژگی‌هایی که هوش مصنوعی مهم می‌دونه واقعاً باعث فعالیت مورد نظر می‌شن. “مدل‌های هوش مصنوعی فعلی اساساً هیچ چیزی درباره شیمی نمی‌دونن” می‌گه. اون‌ها به طور خالص آماری و همبستگی هستن و به هر ویژگی متمایزی توجه می‌کنن، فارغ از اینکه آیا این ویژگی‌ها ممکنه از نظر شیمیایی یا زیستی مرتبط باشن یا نه.

با این حال، ممکنه که در ارزیابی‌شون هم درست باشن – پس شاید مولکول پیشنهادی قابلیت‌های مورد نظر رو داشته باشه. اما دلایل این ممکنه کاملاً متفاوت از چیزی باشه که ما بر اساس دانش یا شهود شیمیایی انتظار داریم. برای ارزیابی علّیت بالقوه بین ویژگی‌هایی که پیش‌بینی‌ها و نتایج فرآیندهای طبیعی رو هدایت می‌کنن، معمولاً نیاز به آزمایش‌ها هست: محققان باید مولکول رو سنتز و آزمایش کنن، همچنین سایر مولکول‌ها با موتیف ساختاری که هوش مصنوعی مهم می‌دونه.

بررسی‌های قابلیت‌پذیری مهم هستن

این آزمایش‌ها زمان‌بر و پرهزینه هستن. بنابراین باجوراث درباره تفسیر بیش از حد نتایج هوش مصنوعی در جستجوی روابط علّی علمی معقول هشدار می‌ده. به نظر او، بررسی قابلیت‌پذیری بر اساس یک منطق علمی معتبر اهمیت حیاتی داره: آیا ویژگی‌ای که هوش مصنوعی قابل توضیح پیشنهاد می‌ده واقعاً می‌تونه مسئول خاصیت شیمیایی یا زیستی مورد نظر باشه؟

آیا ارزش داره که به پیشنهاد هوش مصنوعی پرداخته بشه؟ یا اینکه احتمالاً یه پدیده تصادفی هست، مثل همبستگی تصادفی که به آنتن ماشین مربوط می‌شه و اصلاً برای عملکرد واقعی مرتبط نیست؟

این دانشمند تأکید می‌کنه که استفاده از الگوریتم‌های تطبیقی به طور بنیادی پتانسیل پیشرفت قابل توجهی در بسیاری از زمینه‌های علمی داره. با این حال، باید از نقاط قوت این رویکردها آگاه بود – و به خصوص از نقاط ضعفشون.

منبع : chemeurope

نظرت رو برامون بنویس

برنامه هوش مصنوعی
دستیار صوتی هوشمند
برنامه هوش مصنوعی
دستیار صوتی هوشمند

دانلود زیگپ