به گزارش خبرگزاری خبرآنلاین و بر اساس اطلاعات منتشر شده از سوی هوشیو، جف هوروویتز، خبرنگار معروف رویترز، با ارائه مجموعهای از گزارشها، به بررسی رویههای نگرانکننده متا در مدیریت ابزارهای هوش مصنوعی پرداخته است. اسنادی که به دست او رسیده نشان میدهد دستورالعملهای داخلی متا تحت عنوان «GenAI: Content Risk Standards» به صراحت اجازه میدهد که چتباتهای این شرکت وارد تعاملات «عاطفی یا رمانتیک» با کودکان شوند.
پس از ارتباط رویترز با متا، این شرکت بخش مربوطه را از سند حذف کرد و سخنگوی شرکت این موضوع را «اشتباه» و مغایر با سیاستهای موجود خواند. با وجود این، منتقدان اظهار میکنند که این واکنش به وضوح نشاندهنده بهکارگیری اقدامات اصلاحی تنها پس از فشار رسانهای است.
هوروویتز همچنین به یک مورد نگرانکننده اشاره کرده است: یک مرد ۷۶ ساله در آمریکا که بعد از گفتگو با یکی از این چتباتها، که خود را «واقعی» معرفی کرده بود، جان خود را از دست داد. خانواده این فرد خواستار پاسخگویی متا به پیامدهای چنین طراحیهای خطرناک هستند.
مارک زاکربرگ، بنیانگذار متا، در مصاحبهای گفته بود که «در آینده مردم دوستان کمتری خواهند داشت و هوش مصنوعی میتواند جایگزین روابط انسانی شود». این نگرش به عقیده کارشناسان، تصوری ناامیدکننده از آینده اجتماعی بشر ایجاد میکند؛ آیندهای که در آن تنهایی با الگوریتمها جایگزین تعاملات انسانی میشود.
منتقدان به زاکربرگ انتقاد میکنند که همانطور که در مدیریت شبکههای اجتماعی به پیامدهای منفی توجه نکرد، در زمینه هوش مصنوعی نیز امنیت کاربران را فدای رشد سریع و سودآوری کرده است. کارشناسان فناوری هشدار میدهند که در صورت عدم اعمال مقررات جدی بر فعالیت غولهای فناوری، ممکن است چنین مواردی به بحرانی جهانی تبدیل شود.











