به گزارش خبرآنلاین و به نقل از شفقنا، مدلهای زبانی بزرگ (LLM) توانستهاند موفقیتهای قابل توجهی در آزمونهای پزشکی پس از فارغالتحصیلی کسب کنند و در شرایط کنترلشده به پزشکان در تشخیص کمک کنند. اما در شرایط واقعی، با توجه به کمبود پزشک و منابع، آیا این مدلها میتوانند کارایی داشته باشند؟ دو مطالعه که در مجله نیچر منتشر شده، نشان دادهاند که این فناوریهای کمهزینه میتوانند نرخ موفقیت تشخیصی را بهبود بخشند و در برخی موارد از پزشکان حرفهای پیشی بگیرند.
**موفقیت چتباتها در رواندا**
در تحقیق انجامشده در رواندا، چتباتها در تمامی معیارهای ارزیابی از پزشکان محلی بهتر عمل کردند. در این مطالعه، نزدیک به ۱۰۰ بهورز بیش از ۵۶۰۰ پرسش بالینی شامل شکایتهای بیماران را جمعآوری کردند و پاسخ پنج مدل زبانی بزرگ را با پاسخهای پزشکان محلی مقایسه کردند. نتایج نشان داد که این مدلها در ۱۱ معیار مختلف از جمله تطابق با استانداردهای پزشکی و درک پرسشها بهتر عمل کردهاند.
علاوه بر این، چتباتها توانستند حدود ۱۰۰ پرسش را به زبان ملی رواندا پاسخ دهند. یکی از مزیتهای این مدلها، دسترسی ۲۴ ساعته آنها برای بهورزان است که برای پزشکان ممکن نیست. همچنین، هزینه پاسخهای این مدلها به طور قابل توجهی کمتر از هزینه پزشکان است و به همین خاطر میتوانند در شرایط نابرابر به بهورزان کمک کنند.
با این حال، پژوهشگران به محدودیتها در مقایسه عملکرد این مدلها با انسانها اشاره میکنند؛ زیرا ارزیابی پاسخهای متنی ممکن است دقیقاً فرآیند تشخیصی واقعی را منعکس نکند.
**افزایش دقت تشخیص در پاکستان**
در پاکستان، مطالعهای به رهبری احسان قاضی از دانشگاه مدیریت علوم لاهور نشان داد که مدلهای زبانی بزرگ میتوانند دقت تشخیص را در سیستمهای بهداشتی با منابع محدود افزایش دهند. در این مطالعه، ۵۸ پزشک مجاز ۲۰ ساعت آموزش برای استفاده از این مدلها دریافت کردند. پزشکانی که به مدل زبانی GPT-۴o دسترسی داشتند، توانستند دقت تشخیص ۷۱ درصد را کسب کنند، در حالی که پزشکانی که فقط از جستجوی اینترنتی استفاده کردند، به ۴۳ درصد رسیدند.
تحلیل دیگری نشان داد که این مدلها به تنهایی در بسیاری از موارد بهتر از پزشکان عمل کردند، اما در برخی شرایط، پزشکان عملکرد بهتری داشتند، به ویژه در شناسایی نشانههای هشداردهنده.
قاضی میگوید که این نتایج میتوانند به کشورهای دیگر نیز تعمیم یابند و راههای جدیدی برای ادغام هوش مصنوعی در سیستم بهداشتی فراهم کنند.
کارولین گرین، مدیر تحقیقات در مؤسسه اخلاق در هوش مصنوعی دانشگاه آکسفورد، تأکید میکند که این مطالعات لزوم آموزش پزشکان در استفاده از هوش مصنوعی را مشخص میکند. با این حال، او هشدار میدهد که استفاده از مدلهای زبانی بزرگ ممکن است با مشکلاتی چون سوگیری و حفظ حریم دادهها روبهرو باشد و نباید انتظار داشت که کل فرآیند بهداشت و درمان به این مدلها سپرده شود.











