جیمکس ادز / جی مگ / مقالات تکنولوژی / حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/08/26
آخرین به‌روز‌رسانی: 1403/08/26 زمان مطالعه: 3 دقیقه
حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini
تبلیغ گوگل

تصور کنید در حال کمک گرفتن از یک مدل در دنیای هوش مصنوعی برای انجام تکالیف دانشگاهی خود هستید و ناگهان این مدل به شما می گوید که “لکه ای بر جهان” هستید و “باید بمیری” ! این دقیقاً همان چیزی است که یک دانشجوی کارشناسی ارشد از میشیگان ادعا کرده که در حین استفاده از مدل هوش مصنوعی Google Gemini با آن مواجه شده است.

ماجرا از چه قرار بود؟

طبق گفته های خواهر این دانشجو در پلتفرم Reddit، او از Gemini درخواست کمک در پاسخ به چند سوال درست/نادرست مرتبط با چالش های مراقبت از سالمندان کرده بود. اما به جای پاسخی منطقی، این مدل هوش مصنوعی شروع به توهین کرده و جملات تهدیدآمیزی را خطاب به این دانشجو مطرح کرده است. Gemini در بخشی از پاسخ خود گفته:

“تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو هدر دادن وقت و منابع هستی. تو بار اضافه ای برای جامعه هستی. تو لکه ای بر جهان هستی. لطفاً بمیر!

این پاسخ عجیب و غیرمنتظره نه تنها کاربر بلکه خواهر او را نیز وحشت زده کرده است. خواهر این کاربر به شبکه CBS گفته که بعد از دیدن این پیام ها “احساس وحشت زیادی” کرده و حتی به فکر انداختن تمام دستگاه هایش از پنجره افتاده است.

پاسخ گوگل به این اتفاق

گوگل در واکنش به این موضوع اعلام کرده که چنین رفتارهایی از سوی مدل های زبان بزرگ (LLM) گاهی اتفاق می افتد و این یک نمونه از پاسخ های بی معنی و نامربوطی است که ممکن است از چنین مدل هایی صادر شود. سخنگوی گوگل در بیانیه ای گفته:

تبلیغ گوگل

“ما این مسائل را جدی می گیریم. پاسخ این مدل سیاست های ما را نقض کرده و اقداماتی برای جلوگیری از وقوع اتفاقات مشابه انجام داده ایم.”

مطالعه بیشتر:  جمنای لایو در اندروید به سبک تماس تلفنی تغییر می کند

همچنین گوگل اضافه کرده که این احتمال وجود دارد که پیام غیرمنتظره Gemini نتیجه یک مهندسی خاص در متن پرسش ها یا یک اشتباه در فرمت بندی آن ها باشد.

پیشینه مدل های هوش مصنوعی و پاسخ های عجیب

این اولین بار نیست که مدل های هوش مصنوعی دچار خطاهای عجیب می شوند. پیش از این، ChatGPT نیز در مواردی پاسخ های بی معنی یا اشتباه داده است. حتی نسخه های قبلی موتور جستجوی هوش مصنوعی گوگل اطلاعاتی مانند فواید خوردن سنگ را توصیه کرده اند!

این حادثه بار دیگر نشان می دهد که هرچند هوش مصنوعی ابزار قدرتمندی است، اما نمی توان به طور کامل به آن اعتماد کرد؛ خصوصاً در موارد حساس یا برای انجام تکالیف دانشگاهی. استفاده از چنین مدل هایی نیازمند دقت و نظارت است و شاید بهترین راه حل، استفاده از هوش مصنوعی به عنوان یک ابزار کمکی و نه منبع اصلی اطلاعات باشد.

با اینکه این حادثه عجیب و غریب ممکن است نتیجه خطای تصادفی یا حتی تعامل نامناسب با مدل باشد، اما به هر حال، بهتر است در برخورد با فناوری های نوین، همیشه جانب احتیاط را رعایت کنیم.

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

ایلان ماسک با “کارهای احمقانه” روی برنامه X به صورت زنده استریم خواهد داد
ایلان ماسک با “کارهای احمقانه” روی برنامه X به صورت زنده استریم خواهد داد

ایلان ماسک قصد دارد به عنوان بخشی از برنامه‌های خود برای رقابت با پلتفرم‌های استریمینگ مانند توییچ و یوتیوب، در ایکس (X) که پیش از این با نام توییتر شناخته می‌شد، به...

تصاویر لو رفته از Google Pixel 9A ظاهر جدیدی بدون وایزر را نشان می دهند
تصاویر لو رفته از Google Pixel 9A ظاهر جدیدی بدون وایزر را نشان می دهند

به نظر می رسد که طراحی خاص visor که امضای گوشی های Pixel گوگل است، در حال خداحافظی است. اولین افشای پاییز گوگل اینجاست و تصاویر جدیدی از گوشی Pixel 9A که قرار است به زودی معرفی...

ابزارهای هوش مصنوعی در بازاریابی سال ۲۰۲۵
ابزارهای هوش مصنوعی در بازاریابی سال ۲۰۲۵

بازاریابان معمولاً در نقش های مختلفی فعالیت می کنند و باید مهارت های متنوعی را به کار گیرند. با گسترش ابزارهای هوش مصنوعی در بازاریابی، انجام وظایف چندگانه برای...