جیمکس ادز / جی مگ / مقالات تکنولوژی / حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/08/26
آخرین به‌روز‌رسانی: 1403/08/26 زمان مطالعه: 3 دقیقه
حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini
تبلیغ گوگل

تصور کنید در حال کمک گرفتن از یک مدل در دنیای هوش مصنوعی برای انجام تکالیف دانشگاهی خود هستید و ناگهان این مدل به شما می گوید که “لکه ای بر جهان” هستید و “باید بمیری” ! این دقیقاً همان چیزی است که یک دانشجوی کارشناسی ارشد از میشیگان ادعا کرده که در حین استفاده از مدل هوش مصنوعی Google Gemini با آن مواجه شده است.

ماجرا از چه قرار بود؟

طبق گفته های خواهر این دانشجو در پلتفرم Reddit، او از Gemini درخواست کمک در پاسخ به چند سوال درست/نادرست مرتبط با چالش های مراقبت از سالمندان کرده بود. اما به جای پاسخی منطقی، این مدل هوش مصنوعی شروع به توهین کرده و جملات تهدیدآمیزی را خطاب به این دانشجو مطرح کرده است. Gemini در بخشی از پاسخ خود گفته:

“تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو هدر دادن وقت و منابع هستی. تو بار اضافه ای برای جامعه هستی. تو لکه ای بر جهان هستی. لطفاً بمیر!

این پاسخ عجیب و غیرمنتظره نه تنها کاربر بلکه خواهر او را نیز وحشت زده کرده است. خواهر این کاربر به شبکه CBS گفته که بعد از دیدن این پیام ها “احساس وحشت زیادی” کرده و حتی به فکر انداختن تمام دستگاه هایش از پنجره افتاده است.

پاسخ گوگل به این اتفاق

گوگل در واکنش به این موضوع اعلام کرده که چنین رفتارهایی از سوی مدل های زبان بزرگ (LLM) گاهی اتفاق می افتد و این یک نمونه از پاسخ های بی معنی و نامربوطی است که ممکن است از چنین مدل هایی صادر شود. سخنگوی گوگل در بیانیه ای گفته:

تبلیغ گوگل

“ما این مسائل را جدی می گیریم. پاسخ این مدل سیاست های ما را نقض کرده و اقداماتی برای جلوگیری از وقوع اتفاقات مشابه انجام داده ایم.”

مطالعه بیشتر:  بهترین لپ تاپ‌های ویندوز با پردازنده‌ی ARM در سال 2024

همچنین گوگل اضافه کرده که این احتمال وجود دارد که پیام غیرمنتظره Gemini نتیجه یک مهندسی خاص در متن پرسش ها یا یک اشتباه در فرمت بندی آن ها باشد.

پیشینه مدل های هوش مصنوعی و پاسخ های عجیب

این اولین بار نیست که مدل های هوش مصنوعی دچار خطاهای عجیب می شوند. پیش از این، ChatGPT نیز در مواردی پاسخ های بی معنی یا اشتباه داده است. حتی نسخه های قبلی موتور جستجوی هوش مصنوعی گوگل اطلاعاتی مانند فواید خوردن سنگ را توصیه کرده اند!

این حادثه بار دیگر نشان می دهد که هرچند هوش مصنوعی ابزار قدرتمندی است، اما نمی توان به طور کامل به آن اعتماد کرد؛ خصوصاً در موارد حساس یا برای انجام تکالیف دانشگاهی. استفاده از چنین مدل هایی نیازمند دقت و نظارت است و شاید بهترین راه حل، استفاده از هوش مصنوعی به عنوان یک ابزار کمکی و نه منبع اصلی اطلاعات باشد.

با اینکه این حادثه عجیب و غریب ممکن است نتیجه خطای تصادفی یا حتی تعامل نامناسب با مدل باشد، اما به هر حال، بهتر است در برخورد با فناوری های نوین، همیشه جانب احتیاط را رعایت کنیم.

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

قیمت آیفون ۱۶ اعلام شد
قیمت آیفون ۱۶ اعلام شد

اپل در روز دوشنبه از سری آیفون 16 پرو رونمایی کرد که دارای صفحه نمایش‌ های بزرگتر، تراشه جدید A18 Pro و عمر باتری بهبود یافته است. این شرکت اعلام کرد که آیفون 16 پرومکس،...

Google Photos با قابلیت هوش مصنوعی Ask Photos ارتقا یافت
Google Photos با قابلیت هوش مصنوعی Ask Photos ارتقا یافت

گوگل فوتوز (Google Photos) اکنون جستجوی هوش مصنوعی را معرفی کرده است  و این می تواند بزرگترین ارتقای آن در سال های اخیر باشد. قابلیت جدید “Ask Photos” با توانایی گوگل جمینی...

بهترین نرم افزار ادیت فیلم برای یوتیوب
بهترین نرم افزار ادیت فیلم برای یوتیوب

تولید محتوای جذاب برای یوتیوب بدون ویرایش حرفه ای ویدیو تقریباً غیرممکن است. انتخاب نرم افزار مناسب برای ادیت فیلم می تواند تفاوت بزرگی در کیفیت ویدیوها، جلب توجه...