هوش مصنوعی «گروک» با اتهام تولید و انتشار تصاویر غیراخلاقی جعلی از کاربران در پلتفرم ایکس مواجه شد.

همشهری آنلاین، فرخنده رفائی: Grok، متعلق به شرکت xAI وابسته به ایلان ماسک، در روزهای اخیر به‌دلیل تولید و انتشار گسترده تصاویر غیراخلاقی از کاربران، از جمله زنان و حتی کودکان در شبکه اجتماعی ایکس، با موجی از انتقادها و واکنش‌های سیاسی و حقوقی در چند کشور روبه‌رو شده است.

به گزارش رویترز، این موضوع زمانی توجه عمومی را به خود جلب کرد که یکی از کاربران، تصویری شخصی و غیرحساس از خود را در شب سال نو در ایکس منتشر کرد. او یک روز بعد متوجه شد برخی کاربران از Grok خواسته‌اند تصویرش را با دستکاری دیجیتال، به شکل‌هایی با محتوای غیراخلاقی بازتولید کند. این کاربر متوجه شد که برخلاف تصور اولیه او، این ربات به بخشی از این درخواست‌ها پاسخ داده و تصاویر جعلی به‌سرعت در پلتفرم پخش شده است.

بررسی‌های بعدی نشان می‌دهد که این تجربه، محدود به یک کاربر نبوده و تعداد زیادی از کاربران شناسایی شده‌اند که Grok تصاویر واقعی آنها را به نسخه‌های دستکاری‌شده و محتوای غیراخلاقی تبدیل کرده است. در برخی موارد، درخواست‌ها به تصاویری مربوط بوده که ظاهر افراد در آن‌ها کم‌سن‌وسال و کودک به نظر می‌رسیده است.

ایکس تاکنون به این اتهام پاسخ رسمی نداده است. شرکت xAI نیز پیش‌تر گزارش‌های مشابه را رد کرده بود.

بیشتر بخوانید:

اعتراض جهانی به انتشار محتوای غیرقانونی

گسترش این تصاویر زنگ خطر را در سطح بین‌المللی به صدا درآورده است. در فرانسه، مقام‌های دولتی اعلام کرده‌اند محتوای تولیدشده «آشکارا غیرقانونی» است و پرونده‌ای برای بررسی قضایی به دادستانی ارجاع داده‌اند.

در هند نیز وزارت فناوری اطلاعات از دفتر محلی ایکس توضیح خواسته و این پلتفرم را به ناتوانی در جلوگیری از سوءاستفاده از Grok برای تولید و انتشار محتوای غیراخلاقی متهم کرده است.

کارشناسان ایمنی هوش مصنوعی می‌گویند این بحران «قابل پیش‌بینی» بوده است. به گفته آنها، کاهش موانع فنی و ادغام مستقیم ابزار تولید تصویر با یک شبکه اجتماعی بزرگ، خطر سوءاستفاده گسترده را افزایش داده و هشدارهای پیشین نهادهای مدنی و ایمنی کودکان نادیده گرفته شده است.

در حالی که واکنش ایلان ماسک به این جنجال‌ها عمدتا غیررسمی و طنزآمیز بوده، قربانیان می‌گویند پیامدهای روانی و اجتماعی این تصاویر جعلی بسیار واقعی است؛ موضوعی که پرسش‌های جدی‌تری درباره مسئولیت پلتفرم‌ها در قبال خروجی‌های هوش مصنوعی مطرح می‌کند.

منبع: همشهری آنلاین