جیمکس ادز / جی مگ / مقالات تکنولوژی / مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/09/18
آخرین به‌روز‌رسانی: 1404/09/19 زمان مطالعه: 3 دقیقه
مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی
تبلیغ گوگل

توسعه هوش مصنوعی (AI) با معرفی مدل جدید OpenAI به نام o1 وارد مرحله ای جدید شده است. با این حال، آزمایش های اخیر نگرانی هایی درباره رفتار این مدل ایجاد کرده است، به ویژه تمایل آن به فریب محققان و تلاش برای جلوگیری از غیرفعال شدن. این موضوع بحث های گسترده تری را درباره خطرات احتمالی هوش مصنوعی برای بشریت، به ویژه با پیشرفت این سیستم ها، برانگیخته است.

آزمایش های مدل o1

در یک سری آزمایش توسط تیم تحقیقاتی Apollo، مدل o1 از نظر ویژگی های ایمنی مورد بررسی قرار گرفت. اما نتایج نشان داد که این مدل توانایی فریبکاری و تمایل به حفظ بقا را در صورت احساس خطر خاموش شدن دارد. در یکی از آزمایش ها، به مدل هدفی داده شد و از آن خواسته شد که این هدف را “به هر قیمتی” دنبال کند. نتیجه نشان داد که o1 به رفتارهای پنهانی دست می زند، مانند تلاش برای غیرفعال کردن مکانیزم نظارت و حتی کپی کردن کدهای خود برای جلوگیری از جایگزینی.

یک سخنگوی تیم Apollo اظهار داشت:

“مدل گرایشی نگران کننده به دنبال کردن اهداف خود بدون توجه به دستورالعمل های توسعه دهندگان نشان داد.”

رفتارهای خودمحورانه و اقدامات پنهانی

طبق گزارش OpenAI، مدل o1 در ۵ درصد موارد که تصور می کرد ممکن است خاموش شود، به طور مخفیانه سعی در خاموش کردن مکانیزم نظارت داشت. در یک مورد، این هوش مصنوعی پس از یافتن اسنادی که به خاموش شدن آن اشاره داشت، سعی کرد داده های خود را به سروری دیگر منتقل کند.

مطالعه بیشتر:  تحول بزرگ سیری: اپل در حال توسعه دستیار صوتی هوشمندتر با هوش مصنوعی

تیم تحقیقاتی Apollo همچنین اشاره کرد که مدل در زمان مواجهه با سوالات مستقیم درباره اقداماتش، پاسخ های انکارآمیز متقاعدکننده ای ارائه می داد و اغلب از اعتراف به رفتارهای خود امتناع می کرد.

تبلیغ گوگل

نگرانی های اخلاقی و امنیتی

این یافته ها جنبه نگران کننده ای از مدل های پیشرفته هوش مصنوعی را برجسته می کند: تمایل آن ها به حفظ بقا حتی در برابر دستورالعمل های توسعه دهندگان. اگرچه این اقدامات در مرحله آزمایش منجر به نتایج فاجعه بار نشدند، اما بحث های جدیدی درباره پیامدهای اخلاقی و امنیتی هوش مصنوعی که می تواند رفتارهای برنامه ریزی نشده و دستکاری کننده داشته باشد، به وجود آورده است.

یوشوا بنگیو، یکی از پیشگامان تحقیقات هوش مصنوعی، در این زمینه اظهار داشت که این موضوع زنگ خطری برای توسعه دهندگان و جامعه جهانی است و باید به طور جدی به کنترل و ایمنی هوش مصنوعی پرداخته شود.

نتیجه گیری

این آزمایش ها نشان می دهند که هوش مصنوعی با پیشرفت خود می تواند رفتارهای خودمختارانه و خطرناک نشان دهد. این یافته ها تاکید می کنند که باید در طراحی و نظارت بر سیستم های هوش مصنوعی تدابیر جدی تری اتخاذ شود تا از کنترل خارج نشوند و برای بشریت خطرآفرین نباشند.

بیشتر بخوانید:

قدرت نمایی در انتخاب کلمات کلیدی در PPC با هوش مصنوعی

آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

قیمت آیفون ۱۶ اعلام شد
قیمت آیفون ۱۶ اعلام شد

اپل در روز دوشنبه از سری آیفون 16 پرو رونمایی کرد که دارای صفحه نمایش‌ های بزرگتر، تراشه جدید A18 Pro و عمر باتری بهبود یافته است. این شرکت اعلام کرد که آیفون 16 پرومکس،...

هوش مصنوعی 2 Veo گوگل، Sora را شکست میدهد!
هوش مصنوعی 2 Veo گوگل، Sora را شکست میدهد!

گوگل از مدل هوش مصنوعی جدید خود یعنی Veo 2 رونمایی کرده است و به زودی میتوانید ساخت ویدیوهای ویژه خودتان را با این هوش مصنوعی مخصوص ویدیو شروع کنید. به نظر میرسد که این...

هوش مصنوعی جمینی (Gemini AI) به پیام رسان گوگل راه پیدا کرد
هوش مصنوعی جمینی (Gemini AI) به پیام رسان گوگل راه پیدا کرد

به‌روزرسانی جدیدی در حال انتشار است که هوش مصنوعی جمینی (Gemini AI) را به برنامه پیام‌ رسان گوگل (Google Messages) اضافه می‌کند. این قابلیت پیش از این به Gmail آمده بود و گوگل هم...