به گزارش خبرآنلاین، مدلهای هوش مصنوعی امروزی متکی به مجموعههای گستردهای از دادههای آموزشی شامل متون، ویدئوها و تصاویر هستند که به منظور شناسایی الگوها و تولید محتوا به کار میروند. در این میان، سوالی مطرح میشود که آیا فقط انسانها این الگوریتمها را آموزش میدهند یا اینکه خود هوش مصنوعی هم در حال تاثیرگذاری بر ماست؟
ایسنا به نقل از برخی محققان اشاره میکند که برخی کاربران تمایل دارند الگوهای نوشتاری، روشهای استدلال و دیدگاههای خود را از مدلهای زبانی بزرگ (LLM) که مورد استفاده قرار میدهند، اقتباس کنند. پژوهشگران نگرانی دارند که این تأثیر میتواند منجر به یکنواختی در نوشتار انسانی شود، به گونهای که حتی افرادی که به طور مستقیم از هوش مصنوعی استفاده نمیکنند، نیز تحت تأثیر قرار گیرند.
ژیوار سوراتی، دانشمند علوم رایانه از دانشگاه کالیفرنیای جنوبی، بر این باور است که مدلهای زبانی بزرگ در حال همگنسازی گفتمان انسانی هستند. او توضیح میدهد که اگر افراد در اطراف خود با این مدلها تعامل کنند، سبک نوشتاری و نگرشهای آنها ممکن است به تدریج به این روشها نزدیک شود.
در مقابل، برخی محققان اعتقاد دارند که ذهن انسان ممکن است در برابر این تأثیرات مقاومت کند. مطالعهای که در ماه نوامبر به صورت پیشچاپ منتشر شد، گروههایی از نویسندگان را شناسایی کرد که هنوز سبک انسانی و متمایز خود را حفظ میکنند و به اصالت خود اهمیت میدهند.
در ارتباط با این موضوع، سوراتی و همکارانش در مطالعهای دیگر، تأثیر عرضه چت جیپیتی بر متنهای منتشرشده در پلتفرمهای اجتماعی را بررسی کردند و دریافتند که این متون از نظر تنوع سبک نوشتاری بعد از راهاندازی این ابزار، کاهش یافتهاند.
تحقیقات اخیر نشان میدهد که افراد تحت تأثیر الگوهای استدلال و دیدگاههای مدلهای زبانی قرار میگیرند. در یک مطالعه که بر روی این تعاملات صورت گرفت، شرکتکنندگان دیدگاههای خود را بعد از مواجهه با مدلها تغییر دادند.
اولیور هاوزر، پژوهشگر در دانشگاه اکستر بریتانیا، اذعان دارد که گرچه افراد میتوانند از هوش مصنوعی برای بهبود نوشتار خود بهرهمند شوند، اما پذیرش این روشها ممکن است به کاهش تنوع در نوشتار و تفکر منجر شود.
همچنین، در مطالعهای که به تازگی در مجله Science Advances منتشر شد، پژوهشگران دریافتند که دیدگاههای اجتماعی افراد بیشتر به آنچه که از ابزارهای هوش مصنوعی دریافت کرده بودند، نزدیک شد. این درحالیست که شرکتکنندگان متوجه تأثیر این ابزارها بر روی خود نشدند، حتی وقتی که از سوگیری ممکن در دیدگاههایشان مطلع شدند، نگرش آنها تغییر نکرد.
به گفته ویلیامز-سسی، این موضوع چالشهای جدی را در زمینه حفظ تنوع دیدگاههای سیاسی و علمی به وجود میآورد و هنوز راهحلی عملی برای مقابله با این تأثیرات مشخص نشده است.یک تحقیق جدید منتشر شده در ماه ژانویه در نشریه نیچر نشان میدهد که دانشمندان با بهرهگیری از ابزارهای هوش مصنوعی در پژوهشهای خود، بیشتر بر روی دستههای محدودتری از موضوعات متمرکز میشوند. این موضوع میتواند منجر به از دست دادن ایدههای نو و غیرمرسوم شود که در واقع برای پیشرفتهای علمی ضروری هستند.
با این حال، تمامی نتایج تحقیقات به یکنواختی ناشی از استفاده از هوش مصنوعی اشاره نمیکنند. یک مقاله منتشر شده در ماه نوامبر نشان میدهد که نویسندگان انسانی وقتی با هوش مصنوعی تعامل میکنند، به روشهای متفاوتی تکامل مییابند. برخی از آنها نوشتارشان به شیوههای هوش مصنوعی نزدیکتر میشود، در حالی که دیگران همچنان سبک خود را حفظ کرده یا حتی سبکی نو ایجاد میکنند که از هوش مصنوعی متمایز است.
این نگرانیها درباره کاهش تنوع در نوشتار انسانی، موجب تردید یون وان، پژوهشگر حوزۀ همکاری انسان و هوش مصنوعی در دانشگاه هیوستون-داونتاون تگزاس شده است. وان اشاره میکند که این واقعیت ممکن است صحیح نباشد.
او و تیمش تصمیم به ایجاد ۱۰ شخصیت هوش مصنوعی با پیشینهها و سبکهای فکری متفاوت گرفتند. این شخصیتها طرح داستانهایی تولید کردند و سپس تعاملاتی با نویسندگان انسانی برقرار کردند. نتایج این مطالعه، که سال گذشته بهصورت پیشچاپ منتشر شده و هنوز در حال داوری است، نشان داد که داستانهای تولید شده از تنوعی مشابه با داستانهای بدون کمک هوش مصنوعی برخوردارند. وان معتقد است که به دلیل همین تنوع در نتایج، این شخصیتهای سفارشی میتوانند به کاهش یکنواختی کمک کنند.









