تماس با ما

### مقاله‌ای جدید درباره هوش مصنوعی

یک مقاله که هنوز مراحل داوری همتا را طی نکرده، به قلم ویشال سیکا، مدیر فناوری سابق شرکت SAP و پسرش وارین سیکا منتشر شده است. ویشال سیکا که پیشینه‌ای معتبر در زمینه هوش مصنوعی دارد، از شاگردان جان مک‌کارتی، یکی از بنیان‌گذاران این رشته به شمار می‌رود.

سیکا ضمن انتقاد از برخی ادعاهای ارائه شده در مورد قابلیت‌های هوش مصنوعی، تصریح کرد: «هیچ راهی وجود ندارد که این مدل‌ها قابل‌اعتماد باشند.» او همچنین بر لزوم فراموش کردن وعده‌های غیرواقعی علاقمندان به هوش مصنوعی در زمینه‌های حساسی مانند مدیریت نیروگاه‌های هسته‌ای تاکید کرد.

#### محدودیت‌های بنیادی در هوش مصنوعی

تحقیقات نشان می‌دهد که علیرغم ادعاهای برخی مدیران شرکت‌های فناوری، محدودیت‌های ذاتی در معماری‌های کنونی هوش مصنوعی وجود دارد که حتی متخصصان صنعت نیز نسبت به آن توافق نظر دارند. به‌تازگی دانشمندان OpenAI اذعان کرده‌اند که مشکلاتی مانند «توهمات هوش مصنوعی» هنوز شایع است و ذخیره‌سازی دقت 100 درصدی در این سیستم‌ها امکان‌پذیر نیست.

برخی از شرکت‌ها که سال گذشته برای کاهش نیرو به ایجنت‌های هوش مصنوعی متوسل شدند، با واقعیت این ابزارها مواجه شدند و متوجه شدند که آنها توانایی لازم برای جایگزینی انسان‌ها را ندارند و در برخی موارد به دلیل بروز توهم به مشکل برخوردند.

#### راهکارها برای حل مشکلات

رهبران صنعت تأکید دارند که می‌توان با ایجاد «حفاظ‌های خارجی» برای مدل‌ها، توهمات را کاهش داد. محققان OpenAI در گزارشی به عدم امکان دقت 100 درصدی اشاره کردند و ادعا کردند که مدلسازی می‌تواند در شرایط عدم اطمینان از پاسخ دادن خودداری کند. اما واقعیت این است که چت‌بات‌های فعلی به نادرستی در پی حفظ جذابیت خود به پاسخگویی ادامه می‌دهند.

ویشال سیکا با وجود اینکه بر این باور است که مدل‌های زبانی بزرگ دارای محدودیت‌های خاصی هستند، بر این نکته تأکید می‌کند که امکان طراحی اجزای اضافی برای حل این مشکلات وجود دارد. او بیان کرد: «مدل‌های زبانی بزرگ دارای محدودیت ذاتی هستند؛ اما می‌توان به‌واسطه طراحی‌های جانبی بر این محدودیت‌ها غلبه کرد.»

منبع: futurism

پیوندها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *