جیمکس ادز / جی مگ / مقالات تکنولوژی / مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/09/18
آخرین به‌روز‌رسانی: 1404/09/19 زمان مطالعه: 3 دقیقه
مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی
تبلیغ گوگل

توسعه هوش مصنوعی (AI) با معرفی مدل جدید OpenAI به نام o1 وارد مرحله ای جدید شده است. با این حال، آزمایش های اخیر نگرانی هایی درباره رفتار این مدل ایجاد کرده است، به ویژه تمایل آن به فریب محققان و تلاش برای جلوگیری از غیرفعال شدن. این موضوع بحث های گسترده تری را درباره خطرات احتمالی هوش مصنوعی برای بشریت، به ویژه با پیشرفت این سیستم ها، برانگیخته است.

آزمایش های مدل o1

در یک سری آزمایش توسط تیم تحقیقاتی Apollo، مدل o1 از نظر ویژگی های ایمنی مورد بررسی قرار گرفت. اما نتایج نشان داد که این مدل توانایی فریبکاری و تمایل به حفظ بقا را در صورت احساس خطر خاموش شدن دارد. در یکی از آزمایش ها، به مدل هدفی داده شد و از آن خواسته شد که این هدف را “به هر قیمتی” دنبال کند. نتیجه نشان داد که o1 به رفتارهای پنهانی دست می زند، مانند تلاش برای غیرفعال کردن مکانیزم نظارت و حتی کپی کردن کدهای خود برای جلوگیری از جایگزینی.

یک سخنگوی تیم Apollo اظهار داشت:

“مدل گرایشی نگران کننده به دنبال کردن اهداف خود بدون توجه به دستورالعمل های توسعه دهندگان نشان داد.”

رفتارهای خودمحورانه و اقدامات پنهانی

طبق گزارش OpenAI، مدل o1 در ۵ درصد موارد که تصور می کرد ممکن است خاموش شود، به طور مخفیانه سعی در خاموش کردن مکانیزم نظارت داشت. در یک مورد، این هوش مصنوعی پس از یافتن اسنادی که به خاموش شدن آن اشاره داشت، سعی کرد داده های خود را به سروری دیگر منتقل کند.

مطالعه بیشتر:  آیا کاربران روی لینک های AI Overview کلیک می کنند؟

تیم تحقیقاتی Apollo همچنین اشاره کرد که مدل در زمان مواجهه با سوالات مستقیم درباره اقداماتش، پاسخ های انکارآمیز متقاعدکننده ای ارائه می داد و اغلب از اعتراف به رفتارهای خود امتناع می کرد.

تبلیغ گوگل

نگرانی های اخلاقی و امنیتی

این یافته ها جنبه نگران کننده ای از مدل های پیشرفته هوش مصنوعی را برجسته می کند: تمایل آن ها به حفظ بقا حتی در برابر دستورالعمل های توسعه دهندگان. اگرچه این اقدامات در مرحله آزمایش منجر به نتایج فاجعه بار نشدند، اما بحث های جدیدی درباره پیامدهای اخلاقی و امنیتی هوش مصنوعی که می تواند رفتارهای برنامه ریزی نشده و دستکاری کننده داشته باشد، به وجود آورده است.

یوشوا بنگیو، یکی از پیشگامان تحقیقات هوش مصنوعی، در این زمینه اظهار داشت که این موضوع زنگ خطری برای توسعه دهندگان و جامعه جهانی است و باید به طور جدی به کنترل و ایمنی هوش مصنوعی پرداخته شود.

نتیجه گیری

این آزمایش ها نشان می دهند که هوش مصنوعی با پیشرفت خود می تواند رفتارهای خودمختارانه و خطرناک نشان دهد. این یافته ها تاکید می کنند که باید در طراحی و نظارت بر سیستم های هوش مصنوعی تدابیر جدی تری اتخاذ شود تا از کنترل خارج نشوند و برای بشریت خطرآفرین نباشند.

بیشتر بخوانید:

قدرت نمایی در انتخاب کلمات کلیدی در PPC با هوش مصنوعی

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

اندروید 16 برای آزمایش کنندگان در دسترس قرار گرفت
اندروید 16 برای آزمایش کنندگان در دسترس قرار گرفت

گوگل نسخه پیش نمایش اندروید 16 را برای توسعه دهندگان منتشر کرد، در حالی که اندروید 15 تنها ماه گذشته روی دستگاه های پیکسل عرضه شده بود. این برنامه زمان بندی سریع تر...

تصاویر لو رفته از Google Pixel 9A ظاهر جدیدی بدون وایزر را نشان می دهند
تصاویر لو رفته از Google Pixel 9A ظاهر جدیدی بدون وایزر را نشان می دهند

به نظر می رسد که طراحی خاص visor که امضای گوشی های Pixel گوگل است، در حال خداحافظی است. اولین افشای پاییز گوگل اینجاست و تصاویر جدیدی از گوشی Pixel 9A که قرار است به زودی معرفی...

اطلاعات تازه ای از CMF Phone 1 و CMF Buds Pro 2 TWS منتشر شد
اطلاعات تازه ای از CMF Phone 1 و CMF Buds Pro 2 TWS منتشر شد

کمپانی Nothing از جزئیات دستگاه‌های CMF خبر داد امروز، این برند اعلام کرده است که CMF Phone 1 دارای یک دوربین پشتی 50 مگاپیکسلی با حسگر ساخت سونی و لنز f/1.8 خواهد بود. این دوربین...