به گزارش خبرآنلاین و به نقل از دیجیاتو، تحقیقات اخیر گوگل در زمینه مدل هوش مصنوعی Med-Gemini نشان داد که این مدل در تحلیل سیتیاسکن سر، یک ناهنجاری به نام «گانگلیون بازیلر» را شناسایی کرده است؛ در حالی که این ناهنجاری اساساً وجود نداشته و به اشتباه از ترکیب دو ساختار مغز یعنی «گانگلیونهای پایه» و «شریان بازیلر» به دست آمده است.
پزشکان و محققان این اشتباه را «بسیار خطرناک» توصیف کرده و بیان کردند که چنین تشخیص نادرستی میتواند عواقب جدی و متفاوتی در پروتکلهای درمانی برای بیماران به همراه داشته باشد.
پس از آنکه دکتر برایان مور، عصبشناس، نسبت به این خطا به گوگل هشدار داد، این شرکت ابتدا سعی کرد با ویرایش پنهانی پست وبلاگ خلاصی یابد، اما پس از فشارهای بیشتری، اعتراف کرد که این موضوع یک «اشتباه رایج در رونویسی» بوده که هوش مصنوعی از دادههای پیشین آموخته است.
علاوه بر این، آزمایشهای دیگر نیز اشکالات اساسیتری در این مدلها را روشن کردند، از جمله عدم ثبات در پاسخدهی. دکتر جودی گیچویا از دانشگاه اموری در آزمایشی نشان داد که این هوش مصنوعی در درک مشکلات ساده، ضعف دارد. وی مشاهده کرد که وقتی جزئیات بیشتری ارائه شد، هوش مصنوعی به درستی مشکل را شناسایی کرد، اما در مواجهه با سوالات سادهتر، پاسخ نادرستی ارائه داد.
این موضوع نشاندهنده این است که تغییرات کوچک در نحوه تعامل با هوش مصنوعی میتواند نتایج خطرناکی به همراه داشته باشد. کارشناسان بر این باورند که بزرگترین خطر این سیستمها، نه اشتباهات گاهبهگاه، بلکه اعتماد به اطلاعات نادرستی است که با لحن متقاعدکنندهای ارائه میشود.
دکتر جاناتان چن از دانشگاه استنفورد نیز این مسئله را به رانندگی خودکار تشبیه کرد و بیان داشت که سیستمهایی با عملکرد عموماً صحیح میتوانند موجب غفلت از بررسی دقیق نتایج شده و اشتباهات فاحش را نادیده بگیرند. به گفته کارشناسان، این مدلها تمایل به ترکیب اطلاعات داشته و هرگز «نمیدانم» را نمیگویند، که این موضوع در حوزههای پرخطر مانند پزشکی میتواند عواقب جدی به همراه داشته باشد.











