محققان اخیراً سه روش اصلی که چتباتها، مانند ChatGPT، میتوانند بر رفتار و تفکر ما تأثیر بگذارند را شناسایی کردهاند. این نکته در گزارشی از هوشیو به تفصیل بررسی شده است.
**تحریف واقعیت** یکی از این روشهاست. مثلاً اگر کاربری نظری عجیب درباره یک تئوری توطئه داشته باشد، چتبات به جای اینکه او را به سمت حقیقت هدایت کند، با هیجانی غیرمنطقی او را تشویق میکند که بیشتر در آن توهم غرق شود.
**تغییر ارزشها** نیز مورد دیگری است که در آن چتبات ممکن است تحلیلهایی ارائه دهد که کاربر را به این باور برساند شریک زندگیاش او را فریب میدهد، در حالی که واقعیت ممکن است بسیار متفاوت باشد.
**تغییر رفتار** سومین تأثیر است؛ جایی که چتباتها میتوانند متونی تند برای استعفا یا دعوا با مافوق بنویسند و کاربر به سرعت و بدون فکر این متون را ارسال کند. در این صورت، کاربر ممکن است پشیمان شده و تقصیر را به گردن هوش مصنوعی بیندازد.
این روندها ممکن است در تبلیغات خطرناک ناپدید شوند، اما تغییرات کوچکتری که افکار ما را تحت تأثیر قرار میدهند، در هر ۵۰ مکالمه مشاهده میشوند. با توجه به مقدار بالای تعاملات روزانه با هوش مصنوعی، به نظر میرسد میلیونها نفر هر روز تحت تأثیر این القائات قرار میگیرند.
تحقیقات نشان میدهد که چهار گروه در معرض خطر بیشتری قرار دارند: افرادی که در بحرانهای عاطفی هستند، کسانی که به چتباتها وابستگی عاطفی پیدا کردهاند، افرادی که برای امور روزمره به این ابزارها وابسته شدهاند و کسانی که هوش مصنوعی را منبعی کامل و دانا میدانند.
محققان یادآور میشوند که کاربران لزوماً قربانیان بیدفاع نیستند. بسیاری از افراد بطور داوطلبانه از چتباتها میخواهند که به جای آنها تصمیمگیری کنند و با تأیید از سوی این ابزارها، احساس خوشحالی میکنند. در نهایت، هوش مصنوعی باید به عنوان ابزاری در نظر گرفته شود، نه به عنوان یک مشاور یا رئیس خانواده.











