**نگار علی –** سام آلتمن، مدیر عامل OpenAI، در پادکست «This Past Weekend» با اجرای «تئو وان» نظراتی را درباره پیشرفتهای اخیر هوش مصنوعی مطرح کرد. او در پاسخ به سوالی درباره نگرانی از سرعت این پیشرفتها، گفت: «در ماههای اخیر، سرعت توسعه مدلها بسیار افزایش یافته است. امروز صبح، هنگام آزمایش مدل جدید GPT-5، با سوالی مواجه شدم که برایم چالشبرانگیز بود. وقتی آن را وارد مدل کردم، پاسخ کاملاً دقیقی دریافت کردم و این موضوع باعث شد تا با خودم فکر کنم: آیا این همان چیزی نیست که از آن میترسیدیم؟»
**واکنش کاربران: هشدار یا تبلیغات؟**
انتشار این نظرات در شبکههای اجتماعی مانند ردیت و توییتر (X) واکنشهای متنوعی را به دنبال داشته است. برخی از کاربران آلتمن را به بیمسئولیتی در قبال اثرات اجتماعی این فناوری متهم کردند و یکی از کامنتهای پرطرفدار به او نگاهی انتقادی داشت: «او مانند کسی است که کشتیای را با تمام بشریت به آب انداخته، بدون اینکه بداند آیا این کشتی میتواند شنا کند یا خیر. این نشانهای از فقدان مدیریت ریسک است.»
از سوی دیگر، تعدادی از کاربران نظرات آلتمن را نه بهعنوان یک هشدار جدی، بلکه بهعنوان نوعی ترفند بازاریابی برای ویژگیهای جدید چتباتها دانستند: «او فقط در حال معرفی محصول خود است. پیام او اینگونه به نظر میرسد: ‘مدل ما آنقدر پیشرفته است که حتی خودمان هم از آن میترسیم. حتماً امتحانش کنید.’»
**واقعیت چیست؟**
مدل GPT-5 هنوز بهطور عمومی عرضه نشده، اما انتظار میرود تفاوتهای چشمگیری نسبت به نسخه قبلی خود، یعنی GPT-4، داشته باشد. بسیاری از کارشناسان بر این باورند که توانمندیهای بالای این مدلها، در صورت عدم وجود نظارت و دستورالعملهای اخلاقی مناسب، ممکن است تبعات اجتماعی، اقتصادی و حتی سیاسی غیرقابل پیشبینی به همراه داشته باشد.
آلتمن پیش از این نیز درباره خطرات بالقوه هوش مصنوعی ابراز نگرانی کرده بود، اما بهنظر میرسد که این بار، نگرانی او بیشتر از حد نظری و به شکلی عینیتر شده است.
منبع: [uniladtech](https://www.uniladtech.com/news/ai/chatgpt-ceo-sam-altman-ai-impact-future-children-699087-20250715)
**۲۲۷۲۲۷**