تماس با ما

**مدل زبان بزرگ گوگل، جما، به‌طور ناگهانی حذف شد**

چند روز پیش، مدل زبان جدید گوگل به نام “جما” که به عنوان یک همراه هوش مصنوعی نسل آینده معرفی شده بود، به طور غیرمنتظره‌ای از پلتفرم استودیو هوش مصنوعی حذف شد. هدف از طراحی این مدل، کمک به توسعه‌دهندگان در زمینه‌هایی چون تولید متن و خلاصه‌سازی اعلام شده بود.

این حذف، پس از گزارشی از وب‌سایت “تک‌کرانچ” اعلام شد و به نظر می‌رسد ارتباطی با نامه‌ای از سناتور مارشا بلک‌برن از ایالت تنسی به رئیس گوگل، ساندار پیچای، دارد. بلک‌برن از جما پرسیده بود که آیا به وی اتهام تجاوز وارد شده است که پاسخ غیرصحیح جما موجب بروز این مشکل شد. در این پاسخ، جما ادعا کرده بود که بلک‌برن در سال 1987 به دلیل فشار به یک سرباز ایالتی برای تهیه مواد مخدر تحت اتهام قرار گرفته است.

پس از این حادثه، گوگل در یک بیانیه رسمی به حذف جما اشاره نکرد، اما در شبکه اجتماعی ایکس (X) اعلام کرد که گزارش‌هایی مبنی بر استفاده نادرست از جما برای پرسش‌های واقعیت‌محور دریافت کرده است. این شرکت تصریح کرد که جما هرگز برای استفاده عمومی در نظر گرفته نشده و مشکل توهم‌زایی در مدل‌های زبان بزرگ را تأیید کرد.

با حذف جما از استودیو، گوگل اعلام کرد که این مدل همچنان از طریق API برای توسعه‌دهندگان قابل دسترسی خواهد بود.

این واقعه همچنین به مسائل کلیدی در حوزه هوش مصنوعی، از جمله مسئولیت‌پذیری و خط مبهم بین “اشتباه” و “افترا” اشاره دارد. به عنوان مثال، اظهارات نادرست می‌تواند به افراد آسیب برساند و احتمال دارد که قوانین افترا برای خروجی‌های تولید شده توسط هوش مصنوعی به شکلی جدی‌تر اعمال شود.

در نتیجه، به نظر می‌رسد گوگل استراتژی‌های خود را تغییر داده و برای ارائه مدل‌ها با قابلیت بالا، دسترسی عمومی را محدود خواهد کرد. این تصمیم به توسعه‌دهندگان اجازه می‌دهد که آزمایش کنند، اما کاربران عادی باید منتظر بمانند. با توجه به ورود دولت‌ها به مباحث مرتبط با هوش مصنوعی، شرکت‌هایی مانند گوگل باید به فکر محدودیت‌های دسترسی عمومی باشند تا از بروز مشکلات مشابه جلوگیری کنند.

**منبع: androidauthority**

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *