جیمکس ادز / جی مگ / مقالات تکنولوژی / حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/08/26
آخرین به‌روز‌رسانی: 1403/08/26 زمان مطالعه: 3 دقیقه
حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini
تبلیغ گوگل

تصور کنید در حال کمک گرفتن از یک مدل در دنیای هوش مصنوعی برای انجام تکالیف دانشگاهی خود هستید و ناگهان این مدل به شما می گوید که “لکه ای بر جهان” هستید و “باید بمیری” ! این دقیقاً همان چیزی است که یک دانشجوی کارشناسی ارشد از میشیگان ادعا کرده که در حین استفاده از مدل هوش مصنوعی Google Gemini با آن مواجه شده است.

ماجرا از چه قرار بود؟

طبق گفته های خواهر این دانشجو در پلتفرم Reddit، او از Gemini درخواست کمک در پاسخ به چند سوال درست/نادرست مرتبط با چالش های مراقبت از سالمندان کرده بود. اما به جای پاسخی منطقی، این مدل هوش مصنوعی شروع به توهین کرده و جملات تهدیدآمیزی را خطاب به این دانشجو مطرح کرده است. Gemini در بخشی از پاسخ خود گفته:

“تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو هدر دادن وقت و منابع هستی. تو بار اضافه ای برای جامعه هستی. تو لکه ای بر جهان هستی. لطفاً بمیر!

این پاسخ عجیب و غیرمنتظره نه تنها کاربر بلکه خواهر او را نیز وحشت زده کرده است. خواهر این کاربر به شبکه CBS گفته که بعد از دیدن این پیام ها “احساس وحشت زیادی” کرده و حتی به فکر انداختن تمام دستگاه هایش از پنجره افتاده است.

پاسخ گوگل به این اتفاق

گوگل در واکنش به این موضوع اعلام کرده که چنین رفتارهایی از سوی مدل های زبان بزرگ (LLM) گاهی اتفاق می افتد و این یک نمونه از پاسخ های بی معنی و نامربوطی است که ممکن است از چنین مدل هایی صادر شود. سخنگوی گوگل در بیانیه ای گفته:

تبلیغ گوگل

“ما این مسائل را جدی می گیریم. پاسخ این مدل سیاست های ما را نقض کرده و اقداماتی برای جلوگیری از وقوع اتفاقات مشابه انجام داده ایم.”

مطالعه بیشتر:  تلاش وکلای ایالات متحده برای جداسازی کروم و اندروید از گوگل

همچنین گوگل اضافه کرده که این احتمال وجود دارد که پیام غیرمنتظره Gemini نتیجه یک مهندسی خاص در متن پرسش ها یا یک اشتباه در فرمت بندی آن ها باشد.

پیشینه مدل های هوش مصنوعی و پاسخ های عجیب

این اولین بار نیست که مدل های هوش مصنوعی دچار خطاهای عجیب می شوند. پیش از این، ChatGPT نیز در مواردی پاسخ های بی معنی یا اشتباه داده است. حتی نسخه های قبلی موتور جستجوی هوش مصنوعی گوگل اطلاعاتی مانند فواید خوردن سنگ را توصیه کرده اند!

این حادثه بار دیگر نشان می دهد که هرچند هوش مصنوعی ابزار قدرتمندی است، اما نمی توان به طور کامل به آن اعتماد کرد؛ خصوصاً در موارد حساس یا برای انجام تکالیف دانشگاهی. استفاده از چنین مدل هایی نیازمند دقت و نظارت است و شاید بهترین راه حل، استفاده از هوش مصنوعی به عنوان یک ابزار کمکی و نه منبع اصلی اطلاعات باشد.

با اینکه این حادثه عجیب و غریب ممکن است نتیجه خطای تصادفی یا حتی تعامل نامناسب با مدل باشد، اما به هر حال، بهتر است در برخورد با فناوری های نوین، همیشه جانب احتیاط را رعایت کنیم.

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

انویدیا به طور رسمی اینتل را از بازار کارت های گرافیک حذف کرده است
انویدیا به طور رسمی اینتل را از بازار کارت های گرافیک حذف کرده است

 سهم بازار کارت های گرافیک اینتل به طور رسمی تقریبا به صفر درصد رسیده است. در عین حال انویدیا سهم بازار خود را در بخش کارت های گرافیکی به ۸۸ درصد رسانده است. با اینکه...

احراز هویت پیامکی جیمیل با QR کد جایگزین میشود
احراز هویت پیامکی جیمیل با QR کد جایگزین میشود

گوگل در حال برنامه ریزی برای تغییر روش احراز هویت دو عاملی (2FA) برای حساب های جیمیل است. این تغییر که در ماه های آینده اجرایی می شود، به جای ارسال کدهای شش رقمی از طریق...

مقایسه ی ChatGPT O3-mini و Gemini 2.0 با 7 دستور یکسان
مقایسه ی ChatGPT O3-mini و Gemini 2.0 با 7 دستور یکسان

در دنیای مدل های زبان مصنوعی، OpenAI و Google هر کدام با مدل های قدرتمند خود در حال رقابت هستند. اخیراً، OpenAI مدل o3-mini را برای تمامی کاربران ChatGPT به صورت رایگان در دسترس قرار...