پژوهشگران دانشگاه‌های برتر جهان در حال ساخت سامانه‌هایی‌ هستند که نه‌تنها گذشته، بلکه آینده را با الگوریتم پیش‌بینی می‌کنند.

باشگاه خبرنگاران جوان ـ گروهی از دانشمندان در حال آموزش دادن به مغزهای مصنوعی‌اند تا آینده را پیش‌بینی کنند!
 
در دهه‌ای که هوش مصنوعی از اتاق‌های تحقیقاتی بیرون آمده و به یکی از قدرتمندترین ابزارهای پیش‌بینی و تصمیم‌سازی بدل شده است، پروژه‌ای جاه‌طلبانه در حال شکل‌گیری است: ساخت مدل‌هایی که نه‌تنها داده‌های گذشته را تحلیل می‌کنند، بلکه آینده را نیز شبیه‌سازی می‌کنند.در دانشگاه‌های استنفورد، آکسفورد و مؤسسات فناوری پیشرفته مانند دیپ‌مایند و اوپن‌ای‌آی، پژوهشگرانی در حال طراحی الگوریتم‌هایی هستند که از ترکیب داده‌های عظیم، شبیه‌سازی‌های پیچیده و منطق احتمالاتی استفاده می‌کنند تا آینده‌های ممکن را تخمین بزنند؛ آینده‌هایی که گاه درباره تغییرات اقلیمی هشدار می‌دهند و گاه درباره فروپاشی‌های اجتماعی یا اقتصادی.
 
دکتر جیسون متیوز، پژوهشگر علوم داده در مؤسسه فناوری ماساچوست، در مصاحبه‌ای با نشریه طبیعت می‌گوید: «ما دیگر فقط می‌خواهیم بدانیم چه اتفاقی افتاده؛ هدف اکنون این است که بدانیم چه ممکن است اتفاق بیفتد، و آن را پیش از وقوع تغییر دهیم.به باور او، مدل‌های جدیدی مانند «مدل‌سازان جهان» (توسعه‌یافته در دانشگاه جانز هاپکینز با پشتیبانی دارپا) آغازگر نسلی از هوش‌های مصنوعی‌اند که نه صرفاً ابزار تحلیل، بلکه «ماشین‌های پیش‌بینی آینده» خواهند بود.این مدل‌ها می‌کوشند ساختار علت و معلولی رویدادهای جهانی را بازسازی کنند و سناریوهای محتمل آینده را با دقتی فزاینده بسنجند؛ از گسترش بیماری‌های همه‌گیر گرفته تا الگوهای مهاجرت انسان‌ها در دهه‌های آینده. در ادامه، این گزارش به بررسی این دانشمندان، پروژه‌ها و چالش‌های اخلاقی و علمی پیش‌بینی آینده با هوش مصنوعی می‌پردازد: آیا می‌توان به آینده‌ای اعتماد کرد که توسط الگوریتم نوشته شده است؟ و اگر ماشین‌ها به پیش‌بینی آینده تسلط یابند، سرنوشت تصمیم‌های انسانی چه خواهد شد؟
 

علم «دیدن جلوتر»: جایی که پژوهشگران وارد میدان می‌شوند

در آزمایشگاه‌های دانشگاهی و اتاق‌های تحقیق شرکت‌های پیشرو، تیم‌هایی از فیزیک‌دانان، اپیدمیولوژیست‌ها، دانشمندان داده و محققان اخلاقی دور یک پرسش جمع شده‌اند: آیا می‌توان با مدل‌های پیچیده هوش مصنوعی، «آینده‌های ممکن» را به‌قدر کافی دقیق شبیه‌سازی کرد تا تصمیم‌گیران پیش از وقوع بحران واکنش نشان دهند؟پاسخ نهایی هنوز خیر است؛ اما دستاوردهای اخیر نشان می‌دهد در برخی حوزه‌ها، به‌ویژه آن‌هایی که قوانین فیزیکی پایدار و داده فراوان وجود دارد، پیشرفت‌های قابل‌توجهی حاصل شده است. پروژه‌هایی چون «جِن‌کَست» و «گراف‌کَست» نشان داده‌اند که مدل‌های یادگیری عمیق می‌توانند پیش‌بینی‌های میان‌دوره‌ای آب‌وهوا را با سرعت و گاهی دقتی فراتر از سیستم‌های عددی مرسوم تولید کنند. دیپ‌مایند می‌گوید «جِن‌کَست» اکنون قادر است سناریوهای پانزده روزه را در «دقیقه‌ها» آماده کند و در آزمایش‌های مرجع در سطحی قوی‌تر از بهترین سیستم‌های فعلی ظاهر شده است.نکته عملی این است: وقتی یک مسئله ساختاری روشن دارد (قوانین فیزیک، میدان‌های داده‌ای بلندمدت و مشاهدات مکرر)، یادگیری الگوهای آماری می‌تواند «فاصله زمانی» پیش‌بینی را افزایش دهد و هشدارهای زودهنگام ممکن سازد. مدل‌هایی مانند «فُورکَست‌نِت» یا «جِن‌کَست» با تکیه بر سکّوهای محاسباتی جدید، توانسته‌اند خروجی‌هایی تولید کنند که در شاخص‌های آماری مرجع، عملکرد بهتری از روش‌های عددی نشان داده‌اند؛ دستاوردی که رسانه‌ها آن را گامی بزرگ خوانده‌اند.
 

مثال‌هایی که «کار می‌کنند»: هوا و اپیدمی

دو حوزه‌ای که سرمایه‌گذاری و نتیجه ملموس داشته‌اند، هواشناسی و اپیدمیولوژی هستند. در هواشناسی، مقالات مروری و انتشارهای صنعتی گزارش کرده‌اند که مدل‌های یادگیری ماشینی جدید در برخی بازه‌ها عملکردی بهتر و بسیار سریع‌تر از مدل‌های سنتی ارائه می‌دهند؛ موضوعی که عملاً به هشدارهای سریع‌تر برای موج‌های گرما، طوفان‌ها و شرایط بحرانی کمک می‌کند.دیپ‌مایند و گروه‌های دانشگاهی ادعا می‌کنند این سامانه‌ها می‌توانند ردیابی چرخندها (سیکلون‌ها) را بهبود بخشند و سناریوهای عدم قطعیت را با شفافیت بیشتری تولید کنند.در اپیدمیولوژی نیز ابزارهای مبتنی بر داده باز مانند «نکست‌استرین» نقش حیاتی در رهگیری جهش‌های ویروس‌ها ایفا کردند و شرکت‌هایی مثل «بلو دات» و «هِلت مَپ» از پردازش متن اخبار و اطلاعات حمل‌ونقل برای شناسایی خوشه‌های اولیه بیماری استفاده کردند؛ «بلو دات» از جمله سرویس‌های خصوصی بود که پیش از اعلام رسمی، هشدارهایی درباره شیوع اولیه کووید-۱۹ صادر کرد.این سامانه‌ها در عمل نه «پیش‌گوی مطلق» بلکه ابزارهای هشداردهنده مفید بودند که به آژانس‌ها اطلاعات اضافه زمانی دادند

جایی که ماشین‌ها لغزش می‌کنند: سیاست، جنگ و «رویدادهای خارج از توزیع»

اما تجربه نشان داده است که همه میدان‌ها برابر خلق نشده‌اند. پیش‌بینی ژئوپلیتیک، بازارهای مالی یا زنجیره‌های پیچیده انسانی (جایی که رفتارها به‌سرعت تغییر می‌کنند یا متأثر از تصمیم‌های خودآگاه بازیگران‌اند) همچنان برای مدل‌های صرفاً داده‌محور چالش‌انگیز است.بررسی‌های مستقل نشان دادند که گروه‌های انسانی برجسته (پیش‌بینان ماهر) در رقابت با سامانه‌های آمیخته ماشین-انسان عملکرد بهتری ارائه دادند؛ در مواردی انسان‌های آموزش‌دیده حتی از سامانه‌های ترکیبی نیز جلو زدند. این نتیجه بر نقشی که قضاوت انسانی و تفکر «خارج از داده» بازی می‌کند، تأکید می‌کند.یک نکته کلیدی علمی این است که مدل‌های یادگیری آماری «ذاتاً» برگرفته از گذشته‌اند: آن‌ها الگوها را از داده‌های تاریخی می‌آموزند و در مواجهه با پدیده‌هایی که «خارج از توزیع» قرار دارند، مطمئن و پایدار عمل نمی‌کنند. این محدودیت مفهومی را محققان در مواضع آکادمیک برجسته کرده‌اند: «هوش مصنوعی به‌طور ضروری همیشه نگاهِ به گذشته دارد.»این گزاره ریشه‌ای توضیح می‌دهد چرا پیش‌بینی «آنچه تاکنون نیامده» همچنان نیازمند نظریه و قضاوت انسانی است. نکته عملی‌تر: برخلاف هواشناسی (که قانون‌مندتر است)، رویدادهایی مانند کودتا، فروپاشی بازار یا بیماری‌های همه‌گیر نوظهور تحت تأثیر تصمیمات سیاسی، اطلاعات غلط و واکنش بازیگران‌اند؛ عواملی که به سختی در داده‌های گذشته ثبت و تعمیم‌پذیرند.
 

روش‌شناسی نوین: ترکیبی‌ها، علّی‌سازی و «مدل‌های جهان»

برای عبور از محدودیت‌های صرف آماری، پژوهشگران چند راهبرد را دنبال می‌کنند: اول، مدل‌های ترکیبی که یادگیری آماری را با مدل‌های مکانیکی و قواعد علّی ترکیب می‌کنند؛ دوم، سیستم‌های انسان-ماشین که قضاوت انسانی را با سرعت و پهنای داده ماشین تلفیق می‌کنند؛ و سوم، پروژه‌هایی برای ساخت «مدل‌های جهان» که هدفشان ادغام تحلیل کیفی علت و معلولی با شبیه‌سازی‌های کمّی است؛ پروژه‌ای که نهادهای دفاعی آن را تشویق کرده و روی توسعه ابزارهای یکپارچه برای پرسش‌های پیچیده ملی-امنیتی سرمایه‌گذاری نموده‌اند.چنین رویکردهایی می‌کوشند از فقط «پیش‌بینی» فراتر روند و مکانیزم‌های مولد رویدادها را بازسازی کنند. در این مسیر، بحث علمی فعلی بر ضرورت افزودن فهم علّی به مدل‌های زمان-پیش‌بینی تأکید دارد: آموختن علت‌ها به مدل‌ها اجازه می‌دهد چه اگرها را بررسی کنند و در نتیجه برای تصمیم‌سازی سیاستی مفیدتر شوند. این حوزه سریعاً در حال بلوغ است اما هنوز آزمون‌پَس‌داده و چالش‌برانگیز است.

ریسک‌ها و سیاست: از اعتبار تا سوءاستفاده

علاوه بر محدودیت‌های علمی، پیش‌بینی مبتنی بر هوش مصنوعی بار سیاستی سنگینی دارد. بانک‌های مرکزی، ناظران مالی و محققان امنیتی درباره خطراتی که سیستم‌های خودگردان پیش‌بینی و تصمیم‌سازی می‌توانند ایجاد کنند هشدار داده‌اند: از ایجاد نوسانات بازار و «خودتحقق‌بخشی» پیش‌بینی‌ها تا ابزارسازی برای عملیات روانی و دست‌کاری اطلاعات.تحلیل‌های بانک‌های مرکزی و مؤسسات سیاستی تأکید می‌کنند که اتکای گسترده به الگوریتم‌های پیش‌بینی بدون چارچوب‌های مقرراتی و شفافیت می‌تواند به بحران‌های ساختاری بیانجامد.هم‌زمان، پژوهش‌ها نشان می‌دهند ترکیب انسان و ماشین لزوماً منجر به نتایج بهتر نمی‌شود؛ گاهی ترکیب‌ها از بهترینِ هر دو بدتر عمل کرده‌اند، و این ضرورت طراحی دقیق رابط‌ها و پروتکل‌های نظارتی را برجسته می‌سازد.به عبارت دیگر، «پیش‌بینی بهتر» لزوماً به «تصمیم‌گیری بهتر» تبدیل نمی‌شود مگر آنکه سازوکارهای انسانی، قانونی و اخلاقی مناسب در کنار آن برقرار باشد.
 

می‌توان امیدوار بود و باید محتاط بود!

هوش مصنوعی در برخی حوزه‌های کمّی و قانون‌مند، مانند بخش‌هایی از هواشناسی و ردیابی ژنومی،‌ می‌تواند به‌طرز ملموسی پیش‌بینی‌ها را بهبود بخشد و زمان پاسخ را کوتاه کند؛ اما در زمینه‌های پیچیده انسانی و آشوبناک، مدل‌های صرفاً آماری محدودیت‌های بنیادی دارند و هنوز نیازمند قضاوت، نظریه و بازخورد انسانی‌اند.از منظر سیاستگذاری، دو کار ضروری به‌نظر می‌رسد:(۱) سرمایه‌گذاری هدفمند روی پژوهش‌های ترکیبی علّی–آماری و آزمایش‌های میدانی ترکیبیو (۲) تدوین چارچوب‌های شفاف نظارتی برای کاربردهای پیش‌بینی در حوزه‌های حساس (مالی، امنیتی، سلامت عمومی).بدون این دو، وعده «دیدن جلوتر» توسط ماشین‌ها خطر تبدیل شدن به یک رؤیای گمراه‌کننده یا ماشینی‌شدن تصمیم‌گیری‌های حساس را دارد.
 
منبع: فارس
اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.