تماس با ما

آکسفورد نسبت به «پزشکان دیجیتال» هشدار می‌دهد؛ چقدر می‌توان به تشخیص‌های چت‌بات‌ها اعتماد کرد؟ – خبرگزاری مهر | اخبار ایران و جهان

آکسفورد نسبت به «پزشکان دیجیتال» هشدار می‌دهد؛ چقدر می‌توان به تشخیص‌های چت‌بات‌ها اعتماد کرد؟ – خبرگزاری مهر | اخبار ایران و جهان

به گزارش خبردونی، پیشرفت‌های اخیر در زمینه هوش مصنوعی انتظارات زیادی درباره تحول در نظام سلامت را به همراه داشته است. از تشخیص زودهنگام بیماری‌ها تا بهبود فرآیندهای درمان، تحلیلگران به هوش مصنوعی به‌عنوان موتور محرک نسل جدید خدمات پزشکی نگاه می‌کنند. اما تحقیقات جدید به‌ویژه نشان داده است که استفاده از چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ برای مشاوره پزشکی می‌تواند خطرناک باشد و این موضوع دوباره شکاف میان امکانات تکنولوژیک و آمادگی عملیاتی این ابزارها را نمایان می‌کند.

تحقیقات مشترک اخیر از سوی محققان مؤسسه اینترنت آکسفورد و دپارتمان علوم بهداشتی مراقبت‌های اولیه نافیلد در دانشگاه آکسفورد، وضعیت کنونی هوش مصنوعی در زمینه سلامت را به تصویر می‌کشد. نتایج این مطالعه نشان می‌دهد که هیجان‌های رسانه‌ای پیرامون پزشکان دیجیتال نباید باعث غافل شدن سیاستگذاران و ارائه‌دهندگان خدمات درمانی از خطرات بالقوه این فناوری شود.

این پژوهش شامل آزمایش نزدیک به ۱۳۰۰ نفر بود که در سناریوهای مختلف مربوط به سلامت قرار گرفتند و از آن‌ها خواسته شد وضعیت‌های بالینی و اقدامات مناسب را شناسایی کنند. برخی از مشارکت‌کنندگان برای دریافت تشخیص و مشاوره از نرم‌افزارهای هوش مصنوعی استفاده کردند و گروه دیگر از روش‌های سنتی بهره بردند.

نتایج ارزیابی نشان داد که پاسخ‌های ایجاد شده توسط هوش مصنوعی عموماً شامل اطلاعات درست و غلطی بود که تفکیک آن‌ها برای کاربران عادی دشوار بود. بنابراین مشکل صرفاً در خطاهای موجود در سامانه‌های هوش مصنوعی نبوده، بلکه در ایجاد حس اعتماد کاذب ناشی از خروجی‌های قاطعانه نیز ریشه دارد.

یکی از نکات قابل تأمل در این تحقیق، وجود تفاوت معنادار میان عملکرد هوش مصنوعی در آزمون‌های دانش پزشکی و کارآمدی آن در شرایط واقعی است. چت‌بات‌ها ممکن است در پاسخ به سوالات ساختاریافته عملکرد خوبی داشته باشند، اما در مواجهه با علائم واقعی و شرایط فردی، قابلیت اعتماد به آن‌ها کاهش می‌یابد.

دکتر ربکا پین، از نویسندگان این پژوهش، تأکید می‌کند که هوش مصنوعی هنوز آماده خدمات‌رسانی مانند پزشکان نیست و بیماران باید درک کنند که استفاده از مدل‌های زبانی ممکن است به تشخیص‌های نادرست منجر شود.

اندرو بین، نویسنده اصلی این مطالعه، به چالش‌های تعامل انسانی اشاره می‌کند و می‌گوید که پزشکی جهانی پیچیده است که در آن داده‌های ناقص و توصیف‌های مبهم وجود دارد. بیماران معمولاً علائم خود را به‌صورت غیرساختاریافته بیان می‌کنند؛ موضوعی که احتمال سو برداشت الگوریتم‌ها را افزایش می‌دهد.

کارشناسان بر این باورند که طراحی سیستم‌های هوش مصنوعی برای حوزه‌های سلامت فقط به افزایش دقت مدل وابسته نیست، بلکه نیاز به درک عمیق‌تری از زمینه، قضاوت بالینی و مدیریت عدم قطعیت دارد.محققان دانشگاه آکسفورد در یک مطالعه جدید، نکات کلیدی را درباره آینده حکمرانی سلامت دیجیتال مطرح کردند. استفاده بی‌رویه از هوش مصنوعی برای خودتشخیصی، ممکن است به ایجاد فشار اضافی بر نظام درمان منجر شود. به‌ویژه، تشخیص‌های نادرست می‌تواند به مراجعه‌های غیرضروری یا تأخیر در دریافت خدمات پزشکی حیاتی بینجامد.

از دیگر نکات نگران‌کننده، ظهور نابرابری اطلاعاتی است. افرادی که توانایی ارزیابی انتقادی خروجی‌های هوش مصنوعی را ندارند، بیشتر در معرض تصمیم‌های نادرست قرار خواهند گرفت. این یافته‌ها لزوم ایجاد چارچوب‌های تنظیم‌گری دقیق‌تر را نشان می‌دهد. با وجود تلاش‌های جهانی برای وضع مقررات در این زمینه، سرعت ابتکار عمل اغلب از پیشرفت قوانین جلوتر است.

محققان تأکید کردند که هوش مصنوعی در پزشکی نباید به‌عنوان جایگزینی برای پزشکان تلقی شود، بلکه باید به عنوان ابزاری برای تقویت توانمندی‌های آنان در نظر گرفت. این فناوری می‌تواند در امور مانند غربالگری اولیه داده‌ها و هشدارهای تصمیم‌یار نقش‌آفرینی کند، اما انتقال مسئولیت تشخیص به الگوریتم‌ها هنوز زود محسوب می‌شود.

مدل مؤثرتر آینده در سلامت دیجیتال، همکاری میان انسان و ماشین خواهد بود، جایی که هوش مصنوعی به‌عنوان یک لایه تحلیلی عمل کرده و تصمیم‌گیری نهایی در دست انسان باقی می‌ماند. این پژوهش به سیاستگذاران یادآوری می‌کند که در زمینه‌های حساس، نوآوری بدون حکمرانی مناسب ممکن است به تهدید تبدیل شود. از این رو، تهیه استانداردهای ارزیابی بالینی و تنظیم شفافیت الگوریتم‌ها ضروری است.

همچنین، شرکت‌های فناوری باید از رقابت برای ارائه سریع‌تر محصولات دوری کنند و به ایمنی و اعتماد عمومی در حوزه سلامت توجه کنند. اعتمادی که به راحتی به دست نمی‌آید و با خطاهای گران‌قیمت ممکن است به آسانی از بین برود.

این مطالعه هشداری جدی به بازیگران حوزه سلامت دیجیتال تلقی می‌شود؛ متذکر می‌شود که مسیر تبدیل هوش مصنوعی به یک ابزار قابل اعتماد در پزشکی، پیچیده‌تر از آن چیزی است که تبلیغات نشان می‌دهند. در سال‌های اخیر، دیدگاه‌های خوش‌بینانه نسبت به هوش مصنوعی افزایش یافته، غافل از اینکه پزشکی فراتر از داده‌محوری است و نیاز به قضاوت، تجربه و مدیریت عدم قطعیت دارد.

با وجود ظرفیت‌های بالقوه هوش مصنوعی در بهبود نظام سلامت، فاصله‌ای معنادار بین توانمندی نظری این فناوری و آمادگی عملیاتی آن در محیط‌های واقعی وجود دارد. تا زمانی که این شکاف پر نشود، باید با احتیاط و نظارت تخصصی به استفاده از هوش مصنوعی در تصمیم‌گیری‌های پزشکی پرداخت و چارچوب‌های حرفه‌ای و تنظیم‌گرانه مناسبی ایجاد کرد.یافته‌های اخیر تأکید دارند که نظام‌های سلامت باید از مرحله «هیجان فناورانه» به «بلوغ نهادی» در زمینه هوش مصنوعی حرکت کنند. صرفاً مصرف‌کننده فناوری بودن برای این نظام‌ها کافی نیست؛ آن‌ها باید در طراحی سازوکارهای ارزیابی بالینی، استانداردهای ایمنی و پروتکل‌های ادغام هوش مصنوعی به‌طور فعال تلاش کنند. در غیر این صورت، خطر وابستگی زودهنگام به ابزارهایی که هنوز قابلیت اتکا لازم را ندارند، افزایش خواهد یافت.

در پایان، شاید یکی از مهم‌ترین درس‌های این تحقیق آن است که در فناوری‌های حساس، توانایی به معنی آمادگی برای استفاده نیست. تاریخ توسعه فناوری نشان می‌دهد که فاصله‌ای بزرگ بین امکان فنی و پذیرش ایمن اجتماعی ممکن است وجود داشته باشد. بنابراین، آینده موفق هوش مصنوعی در حوزه پزشکی نه در سرعت جایگزینی پزشکان، بلکه در توسعه تدریجی، انجام آزمون‌های میدانی سخت‌گیرانه و شکل‌دهی به مدل‌های همکاری میان انسان و ماشین رقم خواهد خورد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *