**تحلیل جدید: محتوای تولید شده با هوش مصنوعی و انسانی به سطح برابری رسید**
در ماههای اخیر با گسترش استفاده از تکنولوژیهای هوش مصنوعی، بسیاری از افراد برای انجام کارها و نوشتن مقالات به ابزارهایی نظیر Chat GPT روی آوردهاند. به تدریج، مقالاتی که بهوسیله هوش مصنوعی تولید میشدند، به طور موقت از مقالات تولید شده توسط انسان پیشی گرفتند.
به گفته شرکت سئوی Graphite، اکنون تعداد مقالات تولیدشده توسط هوش مصنوعی و انسانها تقریباً برابر است. پژوهشگران نگران بودند که اگر محتوای تولیدی با هوش مصنوعی بر محتوای انسانی غلبه کند، مدلهای زبانی بزرگ (LLMs) از کیفیت و تنوع محتوای موجود کاسته و دچار فروپاشی شوند.
در سال 2022، یوروپل پیشبینی کرده بود که تا سال 2026 حدود 90 درصد محتوای آنلاین بهوسیله هوش مصنوعی تولید خواهد شد. اما بر اساس تحلیل Graphite که شامل بررسی 65 هزار URL از سال 2020 تا 2025 میشود، پس از ورود ChatGPT در سال 2023، سهم مقالات تولیدشده توسط هوش مصنوعی به شکل چشمگیری افزایش یافت و حتی در نوامبر 2024 از مقالات انسانی پیشی گرفت. اما به تازگی این رویکرد دچار تغییر شده و وضعیت محتوای انسانی و هوش مصنوعی تقریباً به توازن رسیده است.
برای تحلیل دادهها، Graphite از یک نمونه تصادفی از آدرسهای استخراجشده از پایگاه داده Common Crawl استفاده کرده و از ابزاری به نام Surfer برای تشخیص محتوای تولیدشده بهره برده است. این پایگاه شامل بیش از 300 میلیارد صفحه وب بوده و هر ماه بین 3 تا 5 میلیارد صفحه جدید به آن افزوده میشود. محتوایی که بیش از 50 درصد آن بهعنوان نوشته انسان شناخته نمیشود، در گروه تولیدات هوش مصنوعی قرار گرفت.
تشخیص متون تولیدشده توسط انسان و هوش مصنوعی به دلیل پیچیدگی موضوع کار دشواری است. بنابراین، Graphite دقت ابزار Surfer را با دو مجموعه آزمایشی شامل مقالات تولیدشده توسط GPT-4 و مقالاتی که قبل از معرفی ChatGPT منتشر شدند، مقایسه کرد. نتایج نشان داد که نرخ خطای مثبت کاذب در تشخیص مقالات انسانی بهعنوان هوش مصنوعی 4.2 درصد و نرخ خطای منفی کاذب 0.6 درصد بوده است.
بر اساس گزارش Graphite، احتمالاً مزرعههای محتوایی که به تولید محتوای ناکارآمد مشغولاند، متوجه شدهاند که محتوای تولیدشده با هوش مصنوعی در نتایج موتورهای جستجو و پاسخهای چتباتها در اولویت نیستند.طبق بررسیهای اخیر، ۸۶ درصد از مقالاتی که در نتایج جستجوی گوگل دیده میشوند، از نوشتههای انسان به دست آمدهاند و تنها ۱۴ درصد از آنها توسط هوش مصنوعی تولید شده است. این روند در چتباتها نیز مشهود است، جایی که ۸۲ درصد منابع مورد ارجاع ChatGPT و Perplexity، محتوای انسانی هستند و فقط ۱۸ درصد از آنها به هوش مصنوعی تعلق دارند.
به هنگام مشاهده محتوای تولیدشده توسط هوش مصنوعی در نتایج گوگل، معمولاً این نوع محتوا رتبه پایینتری نسبت به مقالات انسانی کسب میکند. با این حال، پژوهشگران اعلام کردهاند که به دلیل ابزارها و تعاریف موجود، تعیین دقیق میزان محتوای تولیدی توسط هوش مصنوعی به سادگی امکانپذیر نیست. یکی از چالشهای اصلی در شناسایی محتوا به قابلیتهای انسانی یا ماشینی آن برمیگردد که اکنون بیشتر در کنار هم فعالیت میکنند.
سخنگوی شرکت گوگل اشاره کرده است که وجود سطوح مختلف در استفاده از هوش مصنوعی، شناسایی دقیق محتوای تولیدشده به صورت انحصاری توسط ماشین را دشوار کرده است. او تصریح کرده که نمیتوان همه محتوای تولیدی هوش مصنوعی را به عنوان اسپم دستهبندی کرد.
در این بین، پروفسور استفانو سواتو از دانشگاه UCLA و معاون ارشد آمازونوبسرویسز نیز به همکاری مشترک انسان و هوش مصنوعی اشاره کرده و تأکید کرده که روابط فعلی بیشتر به همزیستی اشاره دارد تا تقابل.
از سوی دیگر، Common Crawl به عنوان یکی از بزرگترین منابع داده برای آموزش مدلهای زبانی بزرگ شناخته میشود، هرچند که تمامی مقالات اینترنت را شامل نمیشود. بدین ترتیب، برخی از وبسایتهای پولی که محتوای انسانی دارند، مانع از دسترسی Common Crawl به اطلاعات خود شدهاند که میتواند نشاندهنده حجم واقعی محتوای انسانی بیشتر از گزارشهای Graphite باشد.
ایتان اسمیت، مدیرعامل Graphite، مشخص کرده که خلاصههای تولیدشده توسط هوش مصنوعی که با برچسبگذاری مشخص شدهاند، در جستوجوها عملکرد بهتری دارند. با این حال، خلاصههایی که بهصورت خودکار و بدون برچسب ایجاد میشوند، معمولاً بازخورد ضعیفی میگیرند. طبق نظرسنجی اخیر Pew، فقط ۲۰ درصد از کاربران نظر مثبتی درباره خلاصههای هوش مصنوعی دارند و تنها ۶ درصد به آنها اعتماد بالایی نشان میدهند.
این نشاندهنده این است که کاربران هنوز تمایل دارند محتوای تولیدی توسط انسان را بیشتر بخوانند.
منبع: axios










