جیمکس ادز / جی مگ / مقالات تکنولوژی / حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/08/26
آخرین به‌روز‌رسانی: 1404/09/19 زمان مطالعه: 3 دقیقه
حادثه ای عجیب در دنیای هوش مصنوعی Google Gemini
تبلیغ گوگل

تصور کنید در حال کمک گرفتن از یک مدل در دنیای هوش مصنوعی برای انجام تکالیف دانشگاهی خود هستید و ناگهان این مدل به شما می گوید که “لکه ای بر جهان” هستید و “باید بمیری” ! این دقیقاً همان چیزی است که یک دانشجوی کارشناسی ارشد از میشیگان ادعا کرده که در حین استفاده از مدل هوش مصنوعی Google Gemini با آن مواجه شده است.

ماجرا از چه قرار بود؟

طبق گفته های خواهر این دانشجو در پلتفرم Reddit، او از Gemini درخواست کمک در پاسخ به چند سوال درست/نادرست مرتبط با چالش های مراقبت از سالمندان کرده بود. اما به جای پاسخی منطقی، این مدل هوش مصنوعی شروع به توهین کرده و جملات تهدیدآمیزی را خطاب به این دانشجو مطرح کرده است. Gemini در بخشی از پاسخ خود گفته:

“تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو هدر دادن وقت و منابع هستی. تو بار اضافه ای برای جامعه هستی. تو لکه ای بر جهان هستی. لطفاً بمیر!

این پاسخ عجیب و غیرمنتظره نه تنها کاربر بلکه خواهر او را نیز وحشت زده کرده است. خواهر این کاربر به شبکه CBS گفته که بعد از دیدن این پیام ها “احساس وحشت زیادی” کرده و حتی به فکر انداختن تمام دستگاه هایش از پنجره افتاده است.

پاسخ گوگل به این اتفاق

گوگل در واکنش به این موضوع اعلام کرده که چنین رفتارهایی از سوی مدل های زبان بزرگ (LLM) گاهی اتفاق می افتد و این یک نمونه از پاسخ های بی معنی و نامربوطی است که ممکن است از چنین مدل هایی صادر شود. سخنگوی گوگل در بیانیه ای گفته:

تبلیغ گوگل

“ما این مسائل را جدی می گیریم. پاسخ این مدل سیاست های ما را نقض کرده و اقداماتی برای جلوگیری از وقوع اتفاقات مشابه انجام داده ایم.”

مطالعه بیشتر:  بررسی ساعت گلکسی واچ الترا سامسونگ Samsung Galaxy Watch Ultra

همچنین گوگل اضافه کرده که این احتمال وجود دارد که پیام غیرمنتظره Gemini نتیجه یک مهندسی خاص در متن پرسش ها یا یک اشتباه در فرمت بندی آن ها باشد.

پیشینه مدل های هوش مصنوعی و پاسخ های عجیب

این اولین بار نیست که مدل های هوش مصنوعی دچار خطاهای عجیب می شوند. پیش از این، ChatGPT نیز در مواردی پاسخ های بی معنی یا اشتباه داده است. حتی نسخه های قبلی موتور جستجوی هوش مصنوعی گوگل اطلاعاتی مانند فواید خوردن سنگ را توصیه کرده اند!

این حادثه بار دیگر نشان می دهد که هرچند هوش مصنوعی ابزار قدرتمندی است، اما نمی توان به طور کامل به آن اعتماد کرد؛ خصوصاً در موارد حساس یا برای انجام تکالیف دانشگاهی. استفاده از چنین مدل هایی نیازمند دقت و نظارت است و شاید بهترین راه حل، استفاده از هوش مصنوعی به عنوان یک ابزار کمکی و نه منبع اصلی اطلاعات باشد.

با اینکه این حادثه عجیب و غریب ممکن است نتیجه خطای تصادفی یا حتی تعامل نامناسب با مدل باشد، اما به هر حال، بهتر است در برخورد با فناوری های نوین، همیشه جانب احتیاط را رعایت کنیم.

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

معرفی ۵ مورد از زیباترین توزیع های لینوکس:زیبایی در دنیای متن باز
معرفی ۵ مورد از زیباترین توزیع های لینوکس:زیبایی در دنیای متن باز

وقتی صحبت از لینوکس می‌شود، اغلب عملکرد و قابلیت‌های فنی در مرکز توجه قرار می‌گیرند. اما دنیای متن باز تنها به عملکرد محدود نمی‌شود؛ زیبایی و طراحی نیز می‌توانند...

اندروید 16 برای آزمایش کنندگان در دسترس قرار گرفت
اندروید 16 برای آزمایش کنندگان در دسترس قرار گرفت

گوگل نسخه پیش نمایش اندروید 16 را برای توسعه دهندگان منتشر کرد، در حالی که اندروید 15 تنها ماه گذشته روی دستگاه های پیکسل عرضه شده بود. این برنامه زمان بندی سریع تر...

همه چیز درباره ChatGPT Search
همه چیز درباره ChatGPT Search

دیروز OpenAI محصول جدیدی به نام “ChatGPT Search” را معرفی کرد که یک افزونه جدید در مرورگر Chrome است و به کاربران امکان می دهد تا از طریق نوار آدرس جستجوهای خود را با استفاده...