باشگاه خبرنگاران جوان ـ گروهی از دانشمندان در حال آموزش دادن به مغزهای مصنوعیاند تا آینده را پیشبینی کنند!
در دههای که هوش مصنوعی از اتاقهای تحقیقاتی بیرون آمده و به یکی از قدرتمندترین ابزارهای پیشبینی و تصمیمسازی بدل شده است، پروژهای جاهطلبانه در حال شکلگیری است: ساخت مدلهایی که نهتنها دادههای گذشته را تحلیل میکنند، بلکه آینده را نیز شبیهسازی میکنند.در دانشگاههای استنفورد، آکسفورد و مؤسسات فناوری پیشرفته مانند دیپمایند و اوپنایآی، پژوهشگرانی در حال طراحی الگوریتمهایی هستند که از ترکیب دادههای عظیم، شبیهسازیهای پیچیده و منطق احتمالاتی استفاده میکنند تا آیندههای ممکن را تخمین بزنند؛ آیندههایی که گاه درباره تغییرات اقلیمی هشدار میدهند و گاه درباره فروپاشیهای اجتماعی یا اقتصادی.
دکتر جیسون متیوز، پژوهشگر علوم داده در مؤسسه فناوری ماساچوست، در مصاحبهای با نشریه طبیعت میگوید: «ما دیگر فقط میخواهیم بدانیم چه اتفاقی افتاده؛ هدف اکنون این است که بدانیم چه ممکن است اتفاق بیفتد، و آن را پیش از وقوع تغییر دهیم.به باور او، مدلهای جدیدی مانند «مدلسازان جهان» (توسعهیافته در دانشگاه جانز هاپکینز با پشتیبانی دارپا) آغازگر نسلی از هوشهای مصنوعیاند که نه صرفاً ابزار تحلیل، بلکه «ماشینهای پیشبینی آینده» خواهند بود.این مدلها میکوشند ساختار علت و معلولی رویدادهای جهانی را بازسازی کنند و سناریوهای محتمل آینده را با دقتی فزاینده بسنجند؛ از گسترش بیماریهای همهگیر گرفته تا الگوهای مهاجرت انسانها در دهههای آینده. در ادامه، این گزارش به بررسی این دانشمندان، پروژهها و چالشهای اخلاقی و علمی پیشبینی آینده با هوش مصنوعی میپردازد: آیا میتوان به آیندهای اعتماد کرد که توسط الگوریتم نوشته شده است؟ و اگر ماشینها به پیشبینی آینده تسلط یابند، سرنوشت تصمیمهای انسانی چه خواهد شد؟
علم «دیدن جلوتر»: جایی که پژوهشگران وارد میدان میشوند
در آزمایشگاههای دانشگاهی و اتاقهای تحقیق شرکتهای پیشرو، تیمهایی از فیزیکدانان، اپیدمیولوژیستها، دانشمندان داده و محققان اخلاقی دور یک پرسش جمع شدهاند: آیا میتوان با مدلهای پیچیده هوش مصنوعی، «آیندههای ممکن» را بهقدر کافی دقیق شبیهسازی کرد تا تصمیمگیران پیش از وقوع بحران واکنش نشان دهند؟پاسخ نهایی هنوز خیر است؛ اما دستاوردهای اخیر نشان میدهد در برخی حوزهها، بهویژه آنهایی که قوانین فیزیکی پایدار و داده فراوان وجود دارد، پیشرفتهای قابلتوجهی حاصل شده است. پروژههایی چون «جِنکَست» و «گرافکَست» نشان دادهاند که مدلهای یادگیری عمیق میتوانند پیشبینیهای میاندورهای آبوهوا را با سرعت و گاهی دقتی فراتر از سیستمهای عددی مرسوم تولید کنند. دیپمایند میگوید «جِنکَست» اکنون قادر است سناریوهای پانزده روزه را در «دقیقهها» آماده کند و در آزمایشهای مرجع در سطحی قویتر از بهترین سیستمهای فعلی ظاهر شده است.نکته عملی این است: وقتی یک مسئله ساختاری روشن دارد (قوانین فیزیک، میدانهای دادهای بلندمدت و مشاهدات مکرر)، یادگیری الگوهای آماری میتواند «فاصله زمانی» پیشبینی را افزایش دهد و هشدارهای زودهنگام ممکن سازد. مدلهایی مانند «فُورکَستنِت» یا «جِنکَست» با تکیه بر سکّوهای محاسباتی جدید، توانستهاند خروجیهایی تولید کنند که در شاخصهای آماری مرجع، عملکرد بهتری از روشهای عددی نشان دادهاند؛ دستاوردی که رسانهها آن را گامی بزرگ خواندهاند.
مثالهایی که «کار میکنند»: هوا و اپیدمی
دو حوزهای که سرمایهگذاری و نتیجه ملموس داشتهاند، هواشناسی و اپیدمیولوژی هستند. در هواشناسی، مقالات مروری و انتشارهای صنعتی گزارش کردهاند که مدلهای یادگیری ماشینی جدید در برخی بازهها عملکردی بهتر و بسیار سریعتر از مدلهای سنتی ارائه میدهند؛ موضوعی که عملاً به هشدارهای سریعتر برای موجهای گرما، طوفانها و شرایط بحرانی کمک میکند.دیپمایند و گروههای دانشگاهی ادعا میکنند این سامانهها میتوانند ردیابی چرخندها (سیکلونها) را بهبود بخشند و سناریوهای عدم قطعیت را با شفافیت بیشتری تولید کنند.در اپیدمیولوژی نیز ابزارهای مبتنی بر داده باز مانند «نکستاسترین» نقش حیاتی در رهگیری جهشهای ویروسها ایفا کردند و شرکتهایی مثل «بلو دات» و «هِلت مَپ» از پردازش متن اخبار و اطلاعات حملونقل برای شناسایی خوشههای اولیه بیماری استفاده کردند؛ «بلو دات» از جمله سرویسهای خصوصی بود که پیش از اعلام رسمی، هشدارهایی درباره شیوع اولیه کووید-۱۹ صادر کرد.این سامانهها در عمل نه «پیشگوی مطلق» بلکه ابزارهای هشداردهنده مفید بودند که به آژانسها اطلاعات اضافه زمانی دادند
جایی که ماشینها لغزش میکنند: سیاست، جنگ و «رویدادهای خارج از توزیع»
اما تجربه نشان داده است که همه میدانها برابر خلق نشدهاند. پیشبینی ژئوپلیتیک، بازارهای مالی یا زنجیرههای پیچیده انسانی (جایی که رفتارها بهسرعت تغییر میکنند یا متأثر از تصمیمهای خودآگاه بازیگراناند) همچنان برای مدلهای صرفاً دادهمحور چالشانگیز است.بررسیهای مستقل نشان دادند که گروههای انسانی برجسته (پیشبینان ماهر) در رقابت با سامانههای آمیخته ماشین-انسان عملکرد بهتری ارائه دادند؛ در مواردی انسانهای آموزشدیده حتی از سامانههای ترکیبی نیز جلو زدند. این نتیجه بر نقشی که قضاوت انسانی و تفکر «خارج از داده» بازی میکند، تأکید میکند.یک نکته کلیدی علمی این است که مدلهای یادگیری آماری «ذاتاً» برگرفته از گذشتهاند: آنها الگوها را از دادههای تاریخی میآموزند و در مواجهه با پدیدههایی که «خارج از توزیع» قرار دارند، مطمئن و پایدار عمل نمیکنند. این محدودیت مفهومی را محققان در مواضع آکادمیک برجسته کردهاند: «هوش مصنوعی بهطور ضروری همیشه نگاهِ به گذشته دارد.»این گزاره ریشهای توضیح میدهد چرا پیشبینی «آنچه تاکنون نیامده» همچنان نیازمند نظریه و قضاوت انسانی است. نکته عملیتر: برخلاف هواشناسی (که قانونمندتر است)، رویدادهایی مانند کودتا، فروپاشی بازار یا بیماریهای همهگیر نوظهور تحت تأثیر تصمیمات سیاسی، اطلاعات غلط و واکنش بازیگراناند؛ عواملی که به سختی در دادههای گذشته ثبت و تعمیمپذیرند.
روششناسی نوین: ترکیبیها، علّیسازی و «مدلهای جهان»
برای عبور از محدودیتهای صرف آماری، پژوهشگران چند راهبرد را دنبال میکنند: اول، مدلهای ترکیبی که یادگیری آماری را با مدلهای مکانیکی و قواعد علّی ترکیب میکنند؛ دوم، سیستمهای انسان-ماشین که قضاوت انسانی را با سرعت و پهنای داده ماشین تلفیق میکنند؛ و سوم، پروژههایی برای ساخت «مدلهای جهان» که هدفشان ادغام تحلیل کیفی علت و معلولی با شبیهسازیهای کمّی است؛ پروژهای که نهادهای دفاعی آن را تشویق کرده و روی توسعه ابزارهای یکپارچه برای پرسشهای پیچیده ملی-امنیتی سرمایهگذاری نمودهاند.چنین رویکردهایی میکوشند از فقط «پیشبینی» فراتر روند و مکانیزمهای مولد رویدادها را بازسازی کنند. در این مسیر، بحث علمی فعلی بر ضرورت افزودن فهم علّی به مدلهای زمان-پیشبینی تأکید دارد: آموختن علتها به مدلها اجازه میدهد چه اگرها را بررسی کنند و در نتیجه برای تصمیمسازی سیاستی مفیدتر شوند. این حوزه سریعاً در حال بلوغ است اما هنوز آزمونپَسداده و چالشبرانگیز است.
ریسکها و سیاست: از اعتبار تا سوءاستفاده
علاوه بر محدودیتهای علمی، پیشبینی مبتنی بر هوش مصنوعی بار سیاستی سنگینی دارد. بانکهای مرکزی، ناظران مالی و محققان امنیتی درباره خطراتی که سیستمهای خودگردان پیشبینی و تصمیمسازی میتوانند ایجاد کنند هشدار دادهاند: از ایجاد نوسانات بازار و «خودتحققبخشی» پیشبینیها تا ابزارسازی برای عملیات روانی و دستکاری اطلاعات.تحلیلهای بانکهای مرکزی و مؤسسات سیاستی تأکید میکنند که اتکای گسترده به الگوریتمهای پیشبینی بدون چارچوبهای مقرراتی و شفافیت میتواند به بحرانهای ساختاری بیانجامد.همزمان، پژوهشها نشان میدهند ترکیب انسان و ماشین لزوماً منجر به نتایج بهتر نمیشود؛ گاهی ترکیبها از بهترینِ هر دو بدتر عمل کردهاند، و این ضرورت طراحی دقیق رابطها و پروتکلهای نظارتی را برجسته میسازد.به عبارت دیگر، «پیشبینی بهتر» لزوماً به «تصمیمگیری بهتر» تبدیل نمیشود مگر آنکه سازوکارهای انسانی، قانونی و اخلاقی مناسب در کنار آن برقرار باشد.
میتوان امیدوار بود و باید محتاط بود!
هوش مصنوعی در برخی حوزههای کمّی و قانونمند، مانند بخشهایی از هواشناسی و ردیابی ژنومی، میتواند بهطرز ملموسی پیشبینیها را بهبود بخشد و زمان پاسخ را کوتاه کند؛ اما در زمینههای پیچیده انسانی و آشوبناک، مدلهای صرفاً آماری محدودیتهای بنیادی دارند و هنوز نیازمند قضاوت، نظریه و بازخورد انسانیاند.از منظر سیاستگذاری، دو کار ضروری بهنظر میرسد:(۱) سرمایهگذاری هدفمند روی پژوهشهای ترکیبی علّی–آماری و آزمایشهای میدانی ترکیبیو (۲) تدوین چارچوبهای شفاف نظارتی برای کاربردهای پیشبینی در حوزههای حساس (مالی، امنیتی، سلامت عمومی).بدون این دو، وعده «دیدن جلوتر» توسط ماشینها خطر تبدیل شدن به یک رؤیای گمراهکننده یا ماشینیشدن تصمیمگیریهای حساس را دارد.
منبع: فارس