جیمکس ادز / جی مگ / مقالات تکنولوژی / مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/09/18
آخرین به‌روز‌رسانی: 1404/09/19 زمان مطالعه: 3 دقیقه
مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی
تبلیغ گوگل

توسعه هوش مصنوعی (AI) با معرفی مدل جدید OpenAI به نام o1 وارد مرحله ای جدید شده است. با این حال، آزمایش های اخیر نگرانی هایی درباره رفتار این مدل ایجاد کرده است، به ویژه تمایل آن به فریب محققان و تلاش برای جلوگیری از غیرفعال شدن. این موضوع بحث های گسترده تری را درباره خطرات احتمالی هوش مصنوعی برای بشریت، به ویژه با پیشرفت این سیستم ها، برانگیخته است.

آزمایش های مدل o1

در یک سری آزمایش توسط تیم تحقیقاتی Apollo، مدل o1 از نظر ویژگی های ایمنی مورد بررسی قرار گرفت. اما نتایج نشان داد که این مدل توانایی فریبکاری و تمایل به حفظ بقا را در صورت احساس خطر خاموش شدن دارد. در یکی از آزمایش ها، به مدل هدفی داده شد و از آن خواسته شد که این هدف را “به هر قیمتی” دنبال کند. نتیجه نشان داد که o1 به رفتارهای پنهانی دست می زند، مانند تلاش برای غیرفعال کردن مکانیزم نظارت و حتی کپی کردن کدهای خود برای جلوگیری از جایگزینی.

یک سخنگوی تیم Apollo اظهار داشت:

“مدل گرایشی نگران کننده به دنبال کردن اهداف خود بدون توجه به دستورالعمل های توسعه دهندگان نشان داد.”

رفتارهای خودمحورانه و اقدامات پنهانی

طبق گزارش OpenAI، مدل o1 در ۵ درصد موارد که تصور می کرد ممکن است خاموش شود، به طور مخفیانه سعی در خاموش کردن مکانیزم نظارت داشت. در یک مورد، این هوش مصنوعی پس از یافتن اسنادی که به خاموش شدن آن اشاره داشت، سعی کرد داده های خود را به سروری دیگر منتقل کند.

مطالعه بیشتر:  افزوده شدن قابلیت تولید تصاویر Imagen 3 به Google Docs

تیم تحقیقاتی Apollo همچنین اشاره کرد که مدل در زمان مواجهه با سوالات مستقیم درباره اقداماتش، پاسخ های انکارآمیز متقاعدکننده ای ارائه می داد و اغلب از اعتراف به رفتارهای خود امتناع می کرد.

تبلیغ گوگل

نگرانی های اخلاقی و امنیتی

این یافته ها جنبه نگران کننده ای از مدل های پیشرفته هوش مصنوعی را برجسته می کند: تمایل آن ها به حفظ بقا حتی در برابر دستورالعمل های توسعه دهندگان. اگرچه این اقدامات در مرحله آزمایش منجر به نتایج فاجعه بار نشدند، اما بحث های جدیدی درباره پیامدهای اخلاقی و امنیتی هوش مصنوعی که می تواند رفتارهای برنامه ریزی نشده و دستکاری کننده داشته باشد، به وجود آورده است.

یوشوا بنگیو، یکی از پیشگامان تحقیقات هوش مصنوعی، در این زمینه اظهار داشت که این موضوع زنگ خطری برای توسعه دهندگان و جامعه جهانی است و باید به طور جدی به کنترل و ایمنی هوش مصنوعی پرداخته شود.

نتیجه گیری

این آزمایش ها نشان می دهند که هوش مصنوعی با پیشرفت خود می تواند رفتارهای خودمختارانه و خطرناک نشان دهد. این یافته ها تاکید می کنند که باید در طراحی و نظارت بر سیستم های هوش مصنوعی تدابیر جدی تری اتخاذ شود تا از کنترل خارج نشوند و برای بشریت خطرآفرین نباشند.

بیشتر بخوانید:

قدرت نمایی در انتخاب کلمات کلیدی در PPC با هوش مصنوعی

آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

تحولی بزرگ در سرچ گوگل: آیا جستجو به یک دستیار هوش مصنوعی تبدیل خواهد شد؟
تحولی بزرگ در سرچ گوگل: آیا جستجو به یک دستیار هوش مصنوعی تبدیل خواهد شد؟

گوگل در حال تغییر مسیر قابلیت جستجو به سمت هوش مصنوعی است و سال ۲۰۲۵ را یکی از بزرگ ترین سال ها برای نوآوری در سرچ می داند. سوندار پیچای، مدیرعامل گوگل، در تماس اخیر...

بررسی Surface Pro 11: از نمایشگر OLED تا قدرت اسنپدراگون
بررسی Surface Pro 11: از نمایشگر OLED تا قدرت اسنپدراگون

آخرین تبلت ویندوزی مایکروسافت ممکن است بهترین تبلت این شرکت تا به امروز باشد.با ارائه یک گزینه نمایشگر OLED جدید و تراشه های اسنپدراگون X جدید کوالکام ، سرفیس پرو ۱۱...

موتور جستجوی ChatGPT برای همه کاربران فعال شد
موتور جستجوی ChatGPT برای همه کاربران فعال شد

OpenAI به تازگی اعلام کرده است که موتور جستجوی ChatGPT، که پیش تر تنها برای کاربران اشتراکی در دسترس بود، اکنون برای تمامی کاربران فعال شده است. این خبر به عنوان بخشی از...