تماس با ما

به گزارش خبرآنلاین، مدل‌های هوش مصنوعی امروزی متکی به مجموعه‌های گسترده‌ای از داده‌های آموزشی شامل متون، ویدئوها و تصاویر هستند که به منظور شناسایی الگوها و تولید محتوا به کار می‌روند. در این میان، سوالی مطرح می‌شود که آیا فقط انسان‌ها این الگوریتم‌ها را آموزش می‌دهند یا اینکه خود هوش مصنوعی هم در حال تاثیرگذاری بر ماست؟

ایسنا به نقل از برخی محققان اشاره می‌کند که برخی کاربران تمایل دارند الگوهای نوشتاری، روش‌های استدلال و دیدگاه‌های خود را از مدل‌های زبانی بزرگ (LLM) که مورد استفاده قرار می‌دهند، اقتباس کنند. پژوهشگران نگرانی‌ دارند که این تأثیر می‌تواند منجر به یکنواختی در نوشتار انسانی شود، به گونه‌ای که حتی افرادی که به طور مستقیم از هوش مصنوعی استفاده نمی‌کنند، نیز تحت تأثیر قرار گیرند.

ژیوار سوراتی، دانشمند علوم رایانه از دانشگاه کالیفرنیای جنوبی، بر این باور است که مدل‌های زبانی بزرگ در حال همگن‌سازی گفتمان انسانی هستند. او توضیح می‌دهد که اگر افراد در اطراف خود با این مدل‌ها تعامل کنند، سبک نوشتاری و نگرش‌های آن‌ها ممکن است به تدریج به این روش‌ها نزدیک شود.

در مقابل، برخی محققان اعتقاد دارند که ذهن انسان ممکن است در برابر این تأثیرات مقاومت کند. مطالعه‌ای که در ماه نوامبر به صورت پیش‌چاپ منتشر شد، گروه‌هایی از نویسندگان را شناسایی کرد که هنوز سبک انسانی و متمایز خود را حفظ می‌کنند و به اصالت خود اهمیت می‌دهند.

در ارتباط با این موضوع، سوراتی و همکارانش در مطالعه‌ای دیگر، تأثیر عرضه چت جی‌پی‌تی بر متن‌های منتشرشده در پلتفرم‌های اجتماعی را بررسی کردند و دریافتند که این متون از نظر تنوع سبک نوشتاری بعد از راه‌اندازی این ابزار، کاهش یافته‌اند.

تحقیقات اخیر نشان می‌دهد که افراد تحت تأثیر الگوهای استدلال و دیدگاه‌های مدل‌های زبانی قرار می‌گیرند. در یک مطالعه که بر روی این تعاملات صورت گرفت، شرکت‌کنندگان دیدگاه‌های خود را بعد از مواجهه با مدل‌ها تغییر دادند.

اولیور هاوزر، پژوهشگر در دانشگاه اکستر بریتانیا، اذعان دارد که گرچه افراد می‌توانند از هوش مصنوعی برای بهبود نوشتار خود بهره‌مند شوند، اما پذیرش این روش‌ها ممکن است به کاهش تنوع در نوشتار و تفکر منجر شود.

همچنین، در مطالعه‌ای که به تازگی در مجله Science Advances منتشر شد، پژوهشگران دریافتند که دیدگاه‌های اجتماعی افراد بیشتر به آنچه که از ابزارهای هوش مصنوعی دریافت کرده بودند، نزدیک شد. این درحالیست که شرکت‌کنندگان متوجه تأثیر این ابزارها بر روی خود نشدند، حتی وقتی که از سوگیری ممکن در دیدگاه‌هایشان مطلع شدند، نگرش آن‌ها تغییر نکرد.

به گفته ویلیامز-سسی، این موضوع چالش‌های جدی را در زمینه حفظ تنوع دیدگاه‌های سیاسی و علمی به وجود می‌آورد و هنوز راه‌حلی عملی برای مقابله با این تأثیرات مشخص نشده است.یک تحقیق جدید منتشر شده در ماه ژانویه در نشریه نیچر نشان می‌دهد که دانشمندان با بهره‌گیری از ابزارهای هوش مصنوعی در پژوهش‌های خود، بیشتر بر روی دسته‌های محدودتری از موضوعات متمرکز می‌شوند. این موضوع می‌تواند منجر به از دست دادن ایده‌های نو و غیرمرسوم شود که در واقع برای پیشرفت‌های علمی ضروری هستند.

با این حال، تمامی نتایج تحقیقات به یکنواختی ناشی از استفاده از هوش مصنوعی اشاره نمی‌کنند. یک مقاله منتشر شده در ماه نوامبر نشان می‌دهد که نویسندگان انسانی وقتی با هوش مصنوعی تعامل می‌کنند، به روش‌های متفاوتی تکامل می‌یابند. برخی از آن‌ها نوشتارشان به شیوه‌های هوش مصنوعی نزدیک‌تر می‌شود، در حالی که دیگران همچنان سبک خود را حفظ کرده یا حتی سبکی نو ایجاد می‌کنند که از هوش مصنوعی متمایز است.

این نگرانی‌ها درباره کاهش تنوع در نوشتار انسانی، موجب تردید یون وان، پژوهشگر حوزۀ همکاری انسان و هوش مصنوعی در دانشگاه هیوستون-داون‌تاون تگزاس شده است. وان اشاره می‌کند که این واقعیت ممکن است صحیح نباشد.

او و تیمش تصمیم به ایجاد ۱۰ شخصیت هوش مصنوعی با پیشینه‌ها و سبک‌های فکری متفاوت گرفتند. این شخصیت‌ها طرح داستان‌هایی تولید کردند و سپس تعاملاتی با نویسندگان انسانی برقرار کردند. نتایج این مطالعه، که سال گذشته به‌صورت پیش‌چاپ منتشر شده و هنوز در حال داوری است، نشان داد که داستان‌های تولید شده از تنوعی مشابه با داستان‌های بدون کمک هوش مصنوعی برخوردارند. وان معتقد است که به دلیل همین تنوع در نتایج، این شخصیت‌های سفارشی می‌توانند به کاهش یکنواختی کمک کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *