تماس با ما

پشت‌پرده‌های عجیبی که به پناهگاه‌های آخرالزمانی غول‌های فناوری مربوط می‌شود، توجهات بسیاری را جلب کرده است. سوال اینجاست که زاکربرگ و سایر میلیاردرها از چه تهدیداتی نگران هستند؟

پشت‌پرده‌های عجیبی که به پناهگاه‌های آخرالزمانی غول‌های فناوری مربوط می‌شود، توجهات بسیاری را جلب کرده است. سوال اینجاست که زاکربرگ و سایر میلیاردرها از چه تهدیداتی نگران هستند؟

**مارک زاکربرگ در حال ساخت یک مجموعه مخفی در هاوایی**

به گزارش منابع آگاه، مارک زاکربرگ، بنیان‌گذار فیس‌بوک، از سال ۲۰۱۴ مشغول به ساخت پروژه بزرگ Koolau Ranch در جزیره کائوآی هاوایی است. این مجموعه عظیم شامل امکانات و تسهیلات رفاهی و همچنین یک پناهگاه با تأمین خودکفا از انرژی و مواد غذایی می‌باشد. دیواری به ارتفاع دو متر، دید افراد از مسیرهای نزدیک به پروژه را مسدود کرده و کارکنان این پروژه به منظور محفوظ نگه‌داشتن اطلاعات، باید توافق‌نامه‌های عدم افشا را امضا کنند.

سال گذشته، وقتی از زاکربرگ پرسیده شد که آیا در حال ایجاد یک پناهگاه برای شرایط بحرانی است، وی با قاطعیت پاسخ منفی داد و توضیح داد که فضای زیرزمینی حدود ۴۶۵ مترمربعی، بیشتر شبیه به یک زیرزمین معمولی است.

با این حال، برخی از همسایگان ملک زاکربرگ آن را “پناهگاه” یا “غار بت‌منِ میلیاردرها” می‌نامند. زاکربرگ به تازگی بیش از ۱۱۰ میلیون دلار برای خرید ملکی دیگر در پالو آلتو، کالیفرنیا هزینه کرده که حاوی فضای زیرزمینی به اندازه ۶۵۰ مترمربع است.

**حرکت‌های مشابه میان دیگر میلیاردرها**

زاکربرگ تنها فردی نیست که به خرید املاک زیرزمینی پرداخته است. گزارش‌ها نشان می‌دهند که مدیران فناوری دیگر نیز در حال خرید زمین‌هایی با امکان تبدیل به پناهگاه‌های لوکس هستند. رید هافمن، از بنیان‌گذاران LinkedIn، اخیراً در مورد “بیمه آخرالزمان” صحبت کرده و مدعی شده که نیمی از میلیاردرهای دنیا چنین بیمه‌ای دارند.

این موضوع به نگرانی‌هایی درباره آماده‌سازی برای جنگ، تغییرات اقلیمی و دیگر فاجعه‌های احتمالی دامن می‌زند. سم آلتمن، یکی از افراد شاخص در این صنعت، نیز به‌طرز مشابهی بیان کرده است که در صورت بروز فاجعه جهانی، به پیتر تیل در یک ملک دورافتاده در نیوزیلند خواهد پیوست.

**نگرانی‌های جدید در عصر هوش مصنوعی**

در سال‌های اخیر پیشرفت‌های سریع در زمینه هوش مصنوعی نگرانی‌های جدیدی را به وجود آورده است. ایلیا سوتسکِوِر، یکی از بنیان‌گذاران OpenAI، درباره این موضوع هشدار داده و بر سرعت رشد این فناوری تأکید کرده است. با انتشار نسخه عمومی ChatGPT در می ۲۰۲۳، این نگرانی‌ها بیشتر شده و کارشناسان به وضعیت بحرانی فناوری‌های جدید اشاره کرده‌اند.

در یک نشست، یکی از همکاران، هائو سوتسکِوِر، پیشنهاد داد که پیش از عرضه فناوری‌های جدید، دانشمندان باید به ایجاد پناهگاه‌های زیرزمینی فکر کنند. وی اعلام کرد: «قبل از راه‌اندازی AGI، ما پناهگاهی خواهیم ساخت.» این اظهارات نشان‌دهنده نگرانی عمیق میان دانشمندان و مدیران ارشد فناوری از عواقب توسعه هوش مصنوعی آینده است.

ظهور هوش عمومی مصنوعی (AGI) و نگرانی‌ها

سوال اصلی این است که آیا باید نسبت به ظهور AGI نگران باشیم؟ رهبران فناوری معتقدند که AGI به زودی واقعیت خواهد یافت. سم آلتمن، مدیر OpenAI، در دسامبر ۲۰۲۴ اعلام کرد که این فناوری زودتر از آنچه اکثر افراد تصور می‌کنند، به حقیقت خواهد پیوست. در همین راستا، دِمیس هسابیس از DeepMind زمان تحقق آن را بین پنج تا ده سال آینده پیش‌بینی کرده است.

از سوی دیگر، برخی متخصصان به این پیش‌بینی‌ها Skepticism دارند. پروفسور وِندی هال از دانشگاه ساوت‌همپتون با بیان اینکه تحقیقات جاری از AGI بسیار فاصله دارد، به انتقاد نسبت به تغییرات مداوم اهداف در این زمینه پرداخت. همچنین، بابک حجت، مدیر شرکت Cognizant، بر این باور است که تحقق AGI نیازمند پیشرفت‌های ساختاری و بنیادی است و زمانی ناگهانی نخواهد داشت.

نگرانی‌ها پیرامون AGI تنها به این نقطه ختم نمی‌شود و به موضوع هوش فوق انسانی (ASI) مربوط می‌شود، که پیشرفته‌ترین مرحله از فناوری‌های هوش مصنوعی است.

مفهوم “تکینگی” (Singularity) که نخستین بار توسط جان فون نویمان در سال ۱۹۵۸ مطرح شد، به لحظه‌ای اشاره دارد که هوش ماشین از درک و کنترل انسان فراتر می‌رود. در سال ۲۰۲۴، کتابی به نام Genesis که به قلم اریک اشمیت و دیگران نوشته شده، به بررسی این ایده پرداخته که فناوری ممکن است روزی به قدری قوی شود که تصمیمات و رهبری را به‌صورت کامل به آن واگذار کنیم.

پول برای همه، بدون نیاز به کار؟

حامیان AGI و ASI دیدگاه‌های دگمی دارند و باور دارند که این فناوری قادر به حل مسائل بزرگ بشری از جمله بیماری‌ها و بحران‌های اقلیمی است. ایلان ماسک در این راستا ادعا کرده که هوش فوق‌العاده می‌تواند دورانی از درآمد همگانی را به ارمغان آورد و با کاهش هزینه‌ها، دسترسی به منابع را برای همه امکان‌پذیر کند. به گفته او، در آینده همه می‌توانند به بهترین خدمات پزشکی، غذا و مسکن دسترسی داشته باشند.

تحلیل نگرانی‌های پناهگاه‌های آخرالزمانی غول‌های فناوری

این موضوع دارای ابعاد نگران‌کننده‌ای است؛ مثلاً اگر فناوری‌های پیشرفته به دست تروریست‌ها بیفتد یا اگر هوش مصنوعی به این نتیجه برسد که انسان مسبب مشکلات جهانی است، چه خواهد شد؟

تیم برنرز-لی، خالق وب، به تازگی هشدار داد: «هر زمان که چیزی از شما باهوش‌تر باشد، باید قادر باشید آن را کنترل و خاموش کنید».

پاسخ‌های دولتی و طرح‌های میلیاردرها

دولت‌های مختلف نیز در راستای مقابله با تهدیدات احتمالی اقداماتی انجام داده‌اند. در ایالات متحده، جو بایدن در سال ۲۰۲۳ دستوری اجرایی صادر کرد که بر اساس آن برخی شرکت‌ها ملزم به ارائه نتایج آزمایش‌های ایمنی خود به دولت شدند. این در حالی است که بازگشت دونالد ترامپ به قدرت منجر به لغو بخشی از این دستور به بهانه موانع بر سر نوآوری شد.

دو سال پیش، مؤسسه ایمنی هوش مصنوعی در بریتانیا با هدف بررسی خطرات فناوری‌های نوین تأسیس شد.

تحلیل نگرانی‌های پناهگاه‌های آخرالزمانی غول‌های فناوری

بسیاری از میلیاردرها نیز به دنبال طرح‌های خصوصی خود هستند که رید هافمن آن را “بیمه آخرالزمان” می‌نامد. وی بیان کرد: «وقتی شخصی درباره خرید ملکی در نیوزیلند صحبت می‌کند، این موضوع نشانه‌ای از انتظارات اوست».

مسأله‌ای که در این بین وجود دارد، نقص انسانی است. یکی از محافظان سابق یکی از میلیاردرها به این نکته اشاره کرده که در صورت بروز بحران واقعی، اولویت آنها حفظ جان خود و ورود به پناهگاه خواهد بود.

آیا این نگرانی‌ها واقعی هستند؟

پروفسور نیل لارنس، متخصص یادگیری ماشین در دانشگاه کمبریج، بر این باور است که نگرانی‌ها در این مورد تا حدی اغراق‌آمیز هستند و می‌گوید: «مفهوم هوش عمومی مصنوعی به اندازه مفهوم “وسیله نقلیه عمومی مصنوعی” بی‌معناست!»

او تأکید کرد که هیچ هوش واحدی وجود نخواهد داشت که بتواند در تمام زمینه‌ها مانند انسان عمل کند. «فناوری‌های فعلی به مردم این امکان را می‌دهد که به‌طور مستقیم با ماشین‌ها تعامل کنند، اما باید تمرکزمان را بر بهبود همین فناوری‌ها به نفع انسان‌ها بگذاریم».

تحلیل نگرانی‌های پناهگاه‌های آخرالزمانی غول‌های فناوری

مغز انسان و هوش مصنوعی

با اینکه هوش مصنوعی در برخی زمینه‌ها مانند تحلیل داده و شناسایی الگوها بر مغز انسان پیشی گرفته، اما هنوز در زمینه ساختاری و درک آگاهانه با مغز انسان فاصله دارد.

مغز انسان شامل حدود ۸۶ میلیارد نورون و ۶۰۰ تریلیون سیناپس است که نسبت به هر مدل مصنوعی دیگر قابل توجه است. در حالی که یک مدل زبانی بزرگ باید در تعامل‌ها مکث کند، مغز انسان همچنان در حال یادگیری و سازگاری است.

بابک حجّت در گفتگویی به مقایسه ویژگی‌های انسان و مدل‌های زبانی پرداخته و عنوان کرده است که انسان‌ها به راحتی اطلاعات جدید را پذیرفته و درک خود از جهان را تغییر می‌دهند. او توضیح می‌دهد که مدل‌های زبانی فقط در صورتی می‌توانند اطلاعات را حفظ کنند که به آن‌ها به‌طور مداوم یادآوری شود و فاقد توانایی فراشناختی هستند؛ به عبارت دیگر، آن‌ها نمی‌دانند که چه اطلاعاتی را در اختیار دارند. در مقابل، انسان‌ها از نوعی آگاهی درون‌نگرانه برخوردارند که هنوز در هیچ آزمایشگاهی شبیه‌سازی نشده است.

حجّت همچنین اشاره دارد که علی‌رغم پیشرفت‌های گسترده در فناوری هوش مصنوعی، این سیستم‌ها فاقد احساس، نیت و درک واقعی از جهان بوده و صرفاً بر اساس داده‌ها و الگوریتم‌ها عمل می‌کنند. در حالی که انسان‌ها از ابعاد اخلاقی و شهودی برخوردارند که تاکنون هیچ ماشینی نتوانسته به آن نزدیک شود.

این دیدگاه‌ها در زمینه نگرانی‌های میلیاردرهای سیلیکون‌ولی از آینده فناوری صدق می‌کند. پیشرفت‌های سریع در این حوزه می‌تواند خطراتی از جمله دستکاری اطلاعات و وابستگی بیش از حد جوامع به سیستم‌هایی را به همراه داشته باشد که درک کاملی از آن‌ها ندارند.

نیل لارنس نیز هشدار می‌دهد که شاید بزرگ‌ترین خطر نه از ماشین‌ها، بلکه از انسان‌هایی باشد که تصمیم به واگذاری قدرت به این ماشین‌ها می‌گیرند.

**منبع: BBC**

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *