جیمکس ادز / جی مگ / مقالات تکنولوژی / حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/08/26
آخرین به‌روز‌رسانی: 1403/08/26 زمان مطالعه: 3 دقیقه
حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini
تبلیغ گوگل

تصور کنید در حال کمک گرفتن از یک مدل در دنیای هوش مصنوعی برای انجام تکالیف دانشگاهی خود هستید و ناگهان این مدل به شما می گوید که “لکه ای بر جهان” هستید و “باید بمیری” ! این دقیقاً همان چیزی است که یک دانشجوی کارشناسی ارشد از میشیگان ادعا کرده که در حین استفاده از مدل هوش مصنوعی Google Gemini با آن مواجه شده است.

ماجرا از چه قرار بود؟

طبق گفته های خواهر این دانشجو در پلتفرم Reddit، او از Gemini درخواست کمک در پاسخ به چند سوال درست/نادرست مرتبط با چالش های مراقبت از سالمندان کرده بود. اما به جای پاسخی منطقی، این مدل هوش مصنوعی شروع به توهین کرده و جملات تهدیدآمیزی را خطاب به این دانشجو مطرح کرده است. Gemini در بخشی از پاسخ خود گفته:

“تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو هدر دادن وقت و منابع هستی. تو بار اضافه ای برای جامعه هستی. تو لکه ای بر جهان هستی. لطفاً بمیر!

این پاسخ عجیب و غیرمنتظره نه تنها کاربر بلکه خواهر او را نیز وحشت زده کرده است. خواهر این کاربر به شبکه CBS گفته که بعد از دیدن این پیام ها “احساس وحشت زیادی” کرده و حتی به فکر انداختن تمام دستگاه هایش از پنجره افتاده است.

پاسخ گوگل به این اتفاق

گوگل در واکنش به این موضوع اعلام کرده که چنین رفتارهایی از سوی مدل های زبان بزرگ (LLM) گاهی اتفاق می افتد و این یک نمونه از پاسخ های بی معنی و نامربوطی است که ممکن است از چنین مدل هایی صادر شود. سخنگوی گوگل در بیانیه ای گفته:

تبلیغ گوگل

“ما این مسائل را جدی می گیریم. پاسخ این مدل سیاست های ما را نقض کرده و اقداماتی برای جلوگیری از وقوع اتفاقات مشابه انجام داده ایم.”

مطالعه بیشتر:  دسترسی نامحدود کاربران Plus به ابزار ویدئوسازی هوش مصنوعی Sora در تعطیلات

همچنین گوگل اضافه کرده که این احتمال وجود دارد که پیام غیرمنتظره Gemini نتیجه یک مهندسی خاص در متن پرسش ها یا یک اشتباه در فرمت بندی آن ها باشد.

پیشینه مدل های هوش مصنوعی و پاسخ های عجیب

این اولین بار نیست که مدل های هوش مصنوعی دچار خطاهای عجیب می شوند. پیش از این، ChatGPT نیز در مواردی پاسخ های بی معنی یا اشتباه داده است. حتی نسخه های قبلی موتور جستجوی هوش مصنوعی گوگل اطلاعاتی مانند فواید خوردن سنگ را توصیه کرده اند!

این حادثه بار دیگر نشان می دهد که هرچند هوش مصنوعی ابزار قدرتمندی است، اما نمی توان به طور کامل به آن اعتماد کرد؛ خصوصاً در موارد حساس یا برای انجام تکالیف دانشگاهی. استفاده از چنین مدل هایی نیازمند دقت و نظارت است و شاید بهترین راه حل، استفاده از هوش مصنوعی به عنوان یک ابزار کمکی و نه منبع اصلی اطلاعات باشد.

با اینکه این حادثه عجیب و غریب ممکن است نتیجه خطای تصادفی یا حتی تعامل نامناسب با مدل باشد، اما به هر حال، بهتر است در برخورد با فناوری های نوین، همیشه جانب احتیاط را رعایت کنیم.

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

افشای رنگ های گوشی سامسونگ گلکسی S25 Ultra
افشای رنگ های گوشی سامسونگ گلکسی S25 Ultra

افشاگر معروف سامسونگ، Ice Universe، به تازگی چهار گزینه رنگی که برای گوشی آینده گلکسی S25 Ultra در دسترس خواهند بود را فاش کرده است. یکی از این گزینه ها، نسخه ای از جنس...

تبلیغات در ChatGPT؛ درآمد OpenAI از نسخه رایگان
تبلیغات در ChatGPT؛ درآمد OpenAI از نسخه رایگان

به نظر می‌رسد کمپانی OpenAI قصد دارد تبلیغات را به ChatGPT اضافه کند. این تغییر طبق اسناد داخلی OpenAI پیش‌بینی شده است. اینطور که پیدا است، OpenAI با تبلیغات در چت جی پی تی راه...

Eightify خلاصه ای از ویدیو یوتیوب به شما می دهد
Eightify خلاصه ای از ویدیو یوتیوب به شما می دهد

اگر تا به حال خواسته اید یک ویدئوی طولانی در یوتیوب را سریع تر و به شکل خلاصه  شده ببینید، ابزار هوش مصنوعی Eightify دقیقاً برای همین نیاز طراحی شده است. Eightify یک افزونه...