به گزارش خبرگزاریها، طبق بررسیهای دانشگاه آکسفورد، استفاده از چتباتها مانند ChatGPT برای مشاوره پزشکی میتواند خطرناک باشد. این مطالعه نشان میدهد که ممکن است کاربران با دریافت پاسخهای نادرست یا ناسازگار از این سیستمها روبرو شوند.
براساس گزارش BBC، دکتر «ربکا پین» که رهبری این تحقیق را بر عهده دارد، به مصرفکنندگان هشدار میدهد که تکیه بر چتباتها برای تشخیص بیماریها میتواند عواقب خطرناکی داشته باشد. پژوهشگران روی ۱۳۰۰ نفر از جمله شرکتکنندگان در سناریوهای گوناگون مانند سردرد و خستگی پس از زایمان بررسی کردند و دریافتند که بهکارگیری هوش مصنوعی به مراتب تصمیمات بهتری نسبت به روشهای قدیمی مانند جستجو در گوگل به دنبال ندارد.
مشکل اصلی این مطالعه به ناتوانی کاربر در ارائه اطلاعات کامل به هوش مصنوعی مربوط میشود، بهطوری که این سیستمها ممکن است سه تشخیص متفاوت ارائه دهند و کاربر را به حتمی کردن گزینه صحیح رها کنند. دکتر «آدام مهدی» تأکید میکند که این معضل بهویژه در زمانی رخ میدهد که کاربران نتوانند جزئیات کافی را در اختیار چتباتها قرار دهند.
در تحقیق همچنین مشکلات ارتباطی دوطرفهای مقیم شده است. کاربران اغلب از نیازهای اطلاعاتی هوش مصنوعی بیخبرند و پاسخها به شدت به نحوه پرسش آنها بستگی دارد. محققان اعلام میکنند این یافتهها نشاندهنده دشواریهای تعامل با مدلهای هوش مصنوعی حتی در سطح پیشرفته هستند. کارشناسان به این نکته اشاره میکنند که هوش مصنوعی در محیطهای واقعی به ویژه در تعامل با غیرمتخصصان ممکن است در عملکرد دچار نقص شود.
دکتر «امبر چایلدز» از دانشگاه ییل بیان کرد که چتباتها معمولاً بر اساس دادههای موجود در پزشکی آموزش دیدهاند و ممکن است انواعی از سوگیریها و تعصبات تاریخی را تکرار کنند. او اضافه کرد: «کیفیت پاسخ چتباتها به کیفیت اطلاعاتی که پزشکان باتجربه ارائه میدهند وابسته است.»
با این حال، برخی کارشناسان معتقدند که نسخههای تخصصی پزشکی ارائه شده توسط شرکتهایی نظیر OpenAI میتوانند نتایج بهتری را رقم بزنند. آنها بر اهمیت توسعه فناوری با رعایت قوانین و استانداردهای پزشکی تأکید میکنند تا ایمنی بیماران تضمین شود.











