استیون هاوکینگ: خطر نابودی انسان به دست خود، کاملا جدی است

استیون هاوکینگ، یکی از مهم‌ترین شخصیت‌ها‌ی علمی امروز است. او معمولا در مورد موضوعات مختلفی صحبت می‌کند. شاخه‌ی اصلی کار او فیزیک نظری است؛ اما در بسیاری از موضوعات دیگر نیز صاحب نظر است. موضوعاتی که هاوکینگ بیشتر در مورد آن‌ها صحبت می‌کند، شامل جستجو برای حیات فرا‌زمینی، تغییرات اقلیمی و هوش مصنوعی هستند. نکته‌ی اصلی صحبت‌ها‌ی او در مورد این است که هر کدام از این موضوعات چگونه می‌توانند باعث خاتمه یافتن نسل بشر شود.

نظریه‌ی پایان

هاوکینگ در یکی از سخنرانی‌هایش در دانشگاه کمبریج گفت:

در زمین دیگر به اندازه‌ی کافی جا برای زندگی ما وجود ندارد. جمعیت جهان در حال افزایش است و به مرز هشدار رسیده و ما در خطر نابودی خود به دست خودمان هستیم.

هاوکینگ متوجه بدبینی شدید در سخنانش شد. وی با استناد به طرح برکسیت (طرح انگلستان برای ترک اتحادیه‌ی اروپا)  گفت:

اصلا در مورد وضعیت جانداران در بلند‌مدت خوش‌بین نیستم.

دوروود زالک، مؤسس و رئیس سیاست‌گذاری و پیشرفت (IGSD: سازمانی که پروژه‌ای باعنوان ترفیع اجتماعات و حفظ و نگهداری محیط به‌وسیله‌ی پیشرفت علم و تکنولوژی در دستور کار دارد)، در مورد انتقاد‌ها‌ی هاوکینگ صحبت کرده است.  او سخنان خود را با این جمله آغاز کرد:

آقای هاوکینگ به نکته‌ی درستی اشاره کرده است. ما با مشکلی مواجه هستیم که سریعا تغییر شکل می‌دهد. شرایط اقلیمی به‌سرعت تغییر می‌کنند و راه حل‌ها‌یی که برای حل این مسئله پیش روی ما هستند، به‌کندی عمل می‌کنند و ما هر روزه بسیاری از آن‌ها را پشت سر می‌گذاریم. همان‌گونه که جمعیت رو به انفجار می‌رود، تأثیرات مخرب انسان روی محیط زیست بد‌تر می‌شود.

تغییر اقلیم

زالک درست مانند هاوکینگ، بر این باور است که در حال نزدیک شدن به نقطه‌ی بحران هستیم؛ یعنی نقطه‌ای که تغییرات اقلیمی غیر قابل بازگشت باشند. صحبت‌ها‌ی زالک بسیار ناراحت‌کننده هستند. او این‌گونه ادامه داد:

به‌زودی به مرحله‌ی هرج‌ومرج اقلیمی خواهیم رسید که تمدن و سیاست دموکراتیک ما را تهدید خواهد کرد؛ تا جایی که این هرج‌ومرج، حکومت‌ها‌ی دیکتاتور و مستبد را نیز تهدید خواهد کرد.

هاوکینگ به تمامی انسان‌ها پیشنهاد می‌کند که برای نجات از نابودی سعی کنند از محدوده‌ی سیاره‌ی زمین خارج شوند. وی در مصاحبه‌ای با BBC در ماه ژوئن گفت:

رفتن از زمین تنها راهی است که می‌تواند ما را از خطر خودمان حفظ کند. من باور قطعی دارم که انسان باید زمین را ترک کند.

کوچ کردن به سایر نواحی منظومه‌ی شمسی کمک می‌کند که بتوانیم فشار جمعیت روی زمین را کم کنیم و میزان تولید دی‌اکسید کربن را کاهش دهیم. با وجود راه حلی که برای این مشکل وجود دارد، هاوکینگ به مشکل دیگری اشاره می‌کند که ممکن است هیچ‌گونه راه حلی برای آن وجود نداشته باشد.

هوش مصنوعی به‌عنوان یک نابود‌کننده

استیون هاوکینگ همیشه در‌باره‌ی هوش مصنوعی به‌عنوان نابود‌کننده‌ی حقیقی نسل بشر صحبت می‌کند. او در مصاحبه‌ای مجله‌ی WIRED، گفت:

دیگر کار از کار گذشته است. من از این‌که روزی هوش مصنوعی جا‌ی انسان واقعی را بگیرد در هراسم.

هوش مصنوعی

ترس هاوکینگ از این است که هوش مصنوعی بسیار کارآمدی بسازیم. به‌گفته‌ی خود او:

یک ابر‌هوش مصنوعی، می‌تواند در رسیدن به اهداف خود بسیار توانمند باشد که اگر با اهداف انسانی هم‌راستا نباشند، در دردسر بزرگی خواهیم افتاد.

حاصل این کار فقط خشونت ضد نسل بشر است؛ چه با نام علم به آن پرداخته شود و چه با نام تکنولوژی.

ایلان ماسک، بنیانگذار OpenAI و مدیر اجرایی تسلا، از تأثیرات مخرب هوش مصنوعی ابراز نگرانی می‌کند. سخنان ماسک بسیار متعادل‌تر از سخنان هاوکینگ بوده است؛ چرا که از نظر هاوکینگ، خطر هوش مصنوعی از خطر کره‌ی شمالی بیش‌تر است و بیش‌تر به‌لزوم سامان‌دهی سیستم‌ها‌ی هوش مصنوعی ارتباط دارد.  به‌گفته‌ی ماسک:

هوش مصنوعی، نوعی از تکنولوژی است که از نظر سیستم‌ها‌ی سیاسی خطر چندانی نمی‌تواند داشته باشد.

هوش مصنوعی

هاوکینگ باور دارد که دستگاه‌ها‌ی سیاسی جهان باید تکنولوژی را کنترل کنند تا از شورش و طغیان ماشین‌ها‌ی ساخته‌ی بشر جلو‌گیری کنند.

پاسکال کافمن، رئیس مؤسسه‌ی هوش مصنوعی و بنیان‌گذار Mindfire، پرخطر بودن هوش مصنوعی برای نسل بشریت را کاملا انکار می‌کند. کافمن در مصاحبه‌ای در مورد خطر پیشرفت هوش مصنوعی، گفته است:

این ترس و واهمه‌ها با واقعیت سازگار نیست.

او در ادامه ادامه توضیح می‌دهد:

زمانی که در مورد هوش مصنوعی صحبت می‌شود، اولین چیزی که به ذهن می‌رسد، بردگی ما به‌وسیله‌ی دست‌ساخته‌ی خودمان است. این ذهنیت فقط برای ساخت فیلم‌ها‌ی سرگرم‌کننده مناسب است و هیچ ربطی به واقعیت و اینکه نباید در راه ساخت هوش مصنوعی قدم گذاشت، ندارد.

با این وجود، کافمن امکان خطر داشتن این تکنولوژی را رد نمی‌کند. به گفته‌ی او:

معمولا خطر‌ها‌یی با چنین تکنولوژی قدرتمندی همراه هستند؛ همان‌گونه که هر وسیله‌ی قدرتمند دیگری خطر‌ها‌یی به دنبال دارد. اما این موضوع به این معنی نیست که باید به تفکرات منفی بها‌ی بیش‌تری بدهیم و طبق آن‌ها کار‌ها را سامان ببخشیم.

شاید راهی باشد که بتوان ترس‌ها‌ی غیر‌ منطقی را از ترس‌ها‌ی منطقی جدا کرد. نظر هاوکینگ در مورد خطر تهدید‌آمیز تغییر اقلیمی کاملا درست است. شاید اگر انسان‌ها به واقعیت علمی تغییر اقلیم بیش‌تر اهممیت می‌دادند، می‌توانستیم سیاره‌ی خودمان را از خطر نابودی نجات بدهیم و به شرایط قبلی بر‌گردانیم.

تانی کال

برگرفته از FUTURISM

زومیت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *