**مارک زاکربرگ در حال ساخت یک مجموعه مخفی در هاوایی**
به گزارش منابع آگاه، مارک زاکربرگ، بنیانگذار فیسبوک، از سال ۲۰۱۴ مشغول به ساخت پروژه بزرگ Koolau Ranch در جزیره کائوآی هاوایی است. این مجموعه عظیم شامل امکانات و تسهیلات رفاهی و همچنین یک پناهگاه با تأمین خودکفا از انرژی و مواد غذایی میباشد. دیواری به ارتفاع دو متر، دید افراد از مسیرهای نزدیک به پروژه را مسدود کرده و کارکنان این پروژه به منظور محفوظ نگهداشتن اطلاعات، باید توافقنامههای عدم افشا را امضا کنند.
سال گذشته، وقتی از زاکربرگ پرسیده شد که آیا در حال ایجاد یک پناهگاه برای شرایط بحرانی است، وی با قاطعیت پاسخ منفی داد و توضیح داد که فضای زیرزمینی حدود ۴۶۵ مترمربعی، بیشتر شبیه به یک زیرزمین معمولی است.
با این حال، برخی از همسایگان ملک زاکربرگ آن را “پناهگاه” یا “غار بتمنِ میلیاردرها” مینامند. زاکربرگ به تازگی بیش از ۱۱۰ میلیون دلار برای خرید ملکی دیگر در پالو آلتو، کالیفرنیا هزینه کرده که حاوی فضای زیرزمینی به اندازه ۶۵۰ مترمربع است.
**حرکتهای مشابه میان دیگر میلیاردرها**
زاکربرگ تنها فردی نیست که به خرید املاک زیرزمینی پرداخته است. گزارشها نشان میدهند که مدیران فناوری دیگر نیز در حال خرید زمینهایی با امکان تبدیل به پناهگاههای لوکس هستند. رید هافمن، از بنیانگذاران LinkedIn، اخیراً در مورد “بیمه آخرالزمان” صحبت کرده و مدعی شده که نیمی از میلیاردرهای دنیا چنین بیمهای دارند.
این موضوع به نگرانیهایی درباره آمادهسازی برای جنگ، تغییرات اقلیمی و دیگر فاجعههای احتمالی دامن میزند. سم آلتمن، یکی از افراد شاخص در این صنعت، نیز بهطرز مشابهی بیان کرده است که در صورت بروز فاجعه جهانی، به پیتر تیل در یک ملک دورافتاده در نیوزیلند خواهد پیوست.
**نگرانیهای جدید در عصر هوش مصنوعی**
در سالهای اخیر پیشرفتهای سریع در زمینه هوش مصنوعی نگرانیهای جدیدی را به وجود آورده است. ایلیا سوتسکِوِر، یکی از بنیانگذاران OpenAI، درباره این موضوع هشدار داده و بر سرعت رشد این فناوری تأکید کرده است. با انتشار نسخه عمومی ChatGPT در می ۲۰۲۳، این نگرانیها بیشتر شده و کارشناسان به وضعیت بحرانی فناوریهای جدید اشاره کردهاند.
در یک نشست، یکی از همکاران، هائو سوتسکِوِر، پیشنهاد داد که پیش از عرضه فناوریهای جدید، دانشمندان باید به ایجاد پناهگاههای زیرزمینی فکر کنند. وی اعلام کرد: «قبل از راهاندازی AGI، ما پناهگاهی خواهیم ساخت.» این اظهارات نشاندهنده نگرانی عمیق میان دانشمندان و مدیران ارشد فناوری از عواقب توسعه هوش مصنوعی آینده است.
ظهور هوش عمومی مصنوعی (AGI) و نگرانیها
سوال اصلی این است که آیا باید نسبت به ظهور AGI نگران باشیم؟ رهبران فناوری معتقدند که AGI به زودی واقعیت خواهد یافت. سم آلتمن، مدیر OpenAI، در دسامبر ۲۰۲۴ اعلام کرد که این فناوری زودتر از آنچه اکثر افراد تصور میکنند، به حقیقت خواهد پیوست. در همین راستا، دِمیس هسابیس از DeepMind زمان تحقق آن را بین پنج تا ده سال آینده پیشبینی کرده است.
از سوی دیگر، برخی متخصصان به این پیشبینیها Skepticism دارند. پروفسور وِندی هال از دانشگاه ساوتهمپتون با بیان اینکه تحقیقات جاری از AGI بسیار فاصله دارد، به انتقاد نسبت به تغییرات مداوم اهداف در این زمینه پرداخت. همچنین، بابک حجت، مدیر شرکت Cognizant، بر این باور است که تحقق AGI نیازمند پیشرفتهای ساختاری و بنیادی است و زمانی ناگهانی نخواهد داشت.
نگرانیها پیرامون AGI تنها به این نقطه ختم نمیشود و به موضوع هوش فوق انسانی (ASI) مربوط میشود، که پیشرفتهترین مرحله از فناوریهای هوش مصنوعی است.
مفهوم “تکینگی” (Singularity) که نخستین بار توسط جان فون نویمان در سال ۱۹۵۸ مطرح شد، به لحظهای اشاره دارد که هوش ماشین از درک و کنترل انسان فراتر میرود. در سال ۲۰۲۴، کتابی به نام Genesis که به قلم اریک اشمیت و دیگران نوشته شده، به بررسی این ایده پرداخته که فناوری ممکن است روزی به قدری قوی شود که تصمیمات و رهبری را بهصورت کامل به آن واگذار کنیم.
پول برای همه، بدون نیاز به کار؟
حامیان AGI و ASI دیدگاههای دگمی دارند و باور دارند که این فناوری قادر به حل مسائل بزرگ بشری از جمله بیماریها و بحرانهای اقلیمی است. ایلان ماسک در این راستا ادعا کرده که هوش فوقالعاده میتواند دورانی از درآمد همگانی را به ارمغان آورد و با کاهش هزینهها، دسترسی به منابع را برای همه امکانپذیر کند. به گفته او، در آینده همه میتوانند به بهترین خدمات پزشکی، غذا و مسکن دسترسی داشته باشند.
این موضوع دارای ابعاد نگرانکنندهای است؛ مثلاً اگر فناوریهای پیشرفته به دست تروریستها بیفتد یا اگر هوش مصنوعی به این نتیجه برسد که انسان مسبب مشکلات جهانی است، چه خواهد شد؟
تیم برنرز-لی، خالق وب، به تازگی هشدار داد: «هر زمان که چیزی از شما باهوشتر باشد، باید قادر باشید آن را کنترل و خاموش کنید».
پاسخهای دولتی و طرحهای میلیاردرها
دولتهای مختلف نیز در راستای مقابله با تهدیدات احتمالی اقداماتی انجام دادهاند. در ایالات متحده، جو بایدن در سال ۲۰۲۳ دستوری اجرایی صادر کرد که بر اساس آن برخی شرکتها ملزم به ارائه نتایج آزمایشهای ایمنی خود به دولت شدند. این در حالی است که بازگشت دونالد ترامپ به قدرت منجر به لغو بخشی از این دستور به بهانه موانع بر سر نوآوری شد.
دو سال پیش، مؤسسه ایمنی هوش مصنوعی در بریتانیا با هدف بررسی خطرات فناوریهای نوین تأسیس شد.
بسیاری از میلیاردرها نیز به دنبال طرحهای خصوصی خود هستند که رید هافمن آن را “بیمه آخرالزمان” مینامد. وی بیان کرد: «وقتی شخصی درباره خرید ملکی در نیوزیلند صحبت میکند، این موضوع نشانهای از انتظارات اوست».
مسألهای که در این بین وجود دارد، نقص انسانی است. یکی از محافظان سابق یکی از میلیاردرها به این نکته اشاره کرده که در صورت بروز بحران واقعی، اولویت آنها حفظ جان خود و ورود به پناهگاه خواهد بود.
آیا این نگرانیها واقعی هستند؟
پروفسور نیل لارنس، متخصص یادگیری ماشین در دانشگاه کمبریج، بر این باور است که نگرانیها در این مورد تا حدی اغراقآمیز هستند و میگوید: «مفهوم هوش عمومی مصنوعی به اندازه مفهوم “وسیله نقلیه عمومی مصنوعی” بیمعناست!»
او تأکید کرد که هیچ هوش واحدی وجود نخواهد داشت که بتواند در تمام زمینهها مانند انسان عمل کند. «فناوریهای فعلی به مردم این امکان را میدهد که بهطور مستقیم با ماشینها تعامل کنند، اما باید تمرکزمان را بر بهبود همین فناوریها به نفع انسانها بگذاریم».
مغز انسان و هوش مصنوعی
با اینکه هوش مصنوعی در برخی زمینهها مانند تحلیل داده و شناسایی الگوها بر مغز انسان پیشی گرفته، اما هنوز در زمینه ساختاری و درک آگاهانه با مغز انسان فاصله دارد.
مغز انسان شامل حدود ۸۶ میلیارد نورون و ۶۰۰ تریلیون سیناپس است که نسبت به هر مدل مصنوعی دیگر قابل توجه است. در حالی که یک مدل زبانی بزرگ باید در تعاملها مکث کند، مغز انسان همچنان در حال یادگیری و سازگاری است.
بابک حجّت در گفتگویی به مقایسه ویژگیهای انسان و مدلهای زبانی پرداخته و عنوان کرده است که انسانها به راحتی اطلاعات جدید را پذیرفته و درک خود از جهان را تغییر میدهند. او توضیح میدهد که مدلهای زبانی فقط در صورتی میتوانند اطلاعات را حفظ کنند که به آنها بهطور مداوم یادآوری شود و فاقد توانایی فراشناختی هستند؛ به عبارت دیگر، آنها نمیدانند که چه اطلاعاتی را در اختیار دارند. در مقابل، انسانها از نوعی آگاهی دروننگرانه برخوردارند که هنوز در هیچ آزمایشگاهی شبیهسازی نشده است.
حجّت همچنین اشاره دارد که علیرغم پیشرفتهای گسترده در فناوری هوش مصنوعی، این سیستمها فاقد احساس، نیت و درک واقعی از جهان بوده و صرفاً بر اساس دادهها و الگوریتمها عمل میکنند. در حالی که انسانها از ابعاد اخلاقی و شهودی برخوردارند که تاکنون هیچ ماشینی نتوانسته به آن نزدیک شود.
این دیدگاهها در زمینه نگرانیهای میلیاردرهای سیلیکونولی از آینده فناوری صدق میکند. پیشرفتهای سریع در این حوزه میتواند خطراتی از جمله دستکاری اطلاعات و وابستگی بیش از حد جوامع به سیستمهایی را به همراه داشته باشد که درک کاملی از آنها ندارند.
نیل لارنس نیز هشدار میدهد که شاید بزرگترین خطر نه از ماشینها، بلکه از انسانهایی باشد که تصمیم به واگذاری قدرت به این ماشینها میگیرند.
**منبع: BBC**