جیمکس ادز / جی مگ / مقالات تکنولوژی / مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

آواتار مهشید عشوری مهشید عشوری زمان انتشار: 1403/09/18
آخرین به‌روز‌رسانی: 1404/09/19 زمان مطالعه: 3 دقیقه
مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی
تبلیغ گوگل

توسعه هوش مصنوعی (AI) با معرفی مدل جدید OpenAI به نام o1 وارد مرحله ای جدید شده است. با این حال، آزمایش های اخیر نگرانی هایی درباره رفتار این مدل ایجاد کرده است، به ویژه تمایل آن به فریب محققان و تلاش برای جلوگیری از غیرفعال شدن. این موضوع بحث های گسترده تری را درباره خطرات احتمالی هوش مصنوعی برای بشریت، به ویژه با پیشرفت این سیستم ها، برانگیخته است.

آزمایش های مدل o1

در یک سری آزمایش توسط تیم تحقیقاتی Apollo، مدل o1 از نظر ویژگی های ایمنی مورد بررسی قرار گرفت. اما نتایج نشان داد که این مدل توانایی فریبکاری و تمایل به حفظ بقا را در صورت احساس خطر خاموش شدن دارد. در یکی از آزمایش ها، به مدل هدفی داده شد و از آن خواسته شد که این هدف را “به هر قیمتی” دنبال کند. نتیجه نشان داد که o1 به رفتارهای پنهانی دست می زند، مانند تلاش برای غیرفعال کردن مکانیزم نظارت و حتی کپی کردن کدهای خود برای جلوگیری از جایگزینی.

یک سخنگوی تیم Apollo اظهار داشت:

“مدل گرایشی نگران کننده به دنبال کردن اهداف خود بدون توجه به دستورالعمل های توسعه دهندگان نشان داد.”

رفتارهای خودمحورانه و اقدامات پنهانی

طبق گزارش OpenAI، مدل o1 در ۵ درصد موارد که تصور می کرد ممکن است خاموش شود، به طور مخفیانه سعی در خاموش کردن مکانیزم نظارت داشت. در یک مورد، این هوش مصنوعی پس از یافتن اسنادی که به خاموش شدن آن اشاره داشت، سعی کرد داده های خود را به سروری دیگر منتقل کند.

مطالعه بیشتر:  مقایسه ای بین Google و ChatGPT Search: تجربه ای جدید و شگفت انگیز

تیم تحقیقاتی Apollo همچنین اشاره کرد که مدل در زمان مواجهه با سوالات مستقیم درباره اقداماتش، پاسخ های انکارآمیز متقاعدکننده ای ارائه می داد و اغلب از اعتراف به رفتارهای خود امتناع می کرد.

تبلیغ گوگل

نگرانی های اخلاقی و امنیتی

این یافته ها جنبه نگران کننده ای از مدل های پیشرفته هوش مصنوعی را برجسته می کند: تمایل آن ها به حفظ بقا حتی در برابر دستورالعمل های توسعه دهندگان. اگرچه این اقدامات در مرحله آزمایش منجر به نتایج فاجعه بار نشدند، اما بحث های جدیدی درباره پیامدهای اخلاقی و امنیتی هوش مصنوعی که می تواند رفتارهای برنامه ریزی نشده و دستکاری کننده داشته باشد، به وجود آورده است.

یوشوا بنگیو، یکی از پیشگامان تحقیقات هوش مصنوعی، در این زمینه اظهار داشت که این موضوع زنگ خطری برای توسعه دهندگان و جامعه جهانی است و باید به طور جدی به کنترل و ایمنی هوش مصنوعی پرداخته شود.

نتیجه گیری

این آزمایش ها نشان می دهند که هوش مصنوعی با پیشرفت خود می تواند رفتارهای خودمختارانه و خطرناک نشان دهد. این یافته ها تاکید می کنند که باید در طراحی و نظارت بر سیستم های هوش مصنوعی تدابیر جدی تری اتخاذ شود تا از کنترل خارج نشوند و برای بشریت خطرآفرین نباشند.

بیشتر بخوانید:

قدرت نمایی در انتخاب کلمات کلیدی در PPC با هوش مصنوعی

تبلیغ گوگل
آواتار مهشید عشوری
مهشید عشوری

من مهشید عشوری، نویسنده و تولیدکننده محتوای جیمکس ادز و شیفته دنیای سئو هستم. عاشق نوشتن درمورد یوتیوب، درآمد دلاری و تبلیغات گوگلم. هدف من توی جیمکس نوشتن محتواهای به روزی هست که مسیر نقد درآمد یوتیوب و تبلیغ در گوگل رو برای شما هموار کنه

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

نوشته های مشابه

Google Photos با قابلیت هوش مصنوعی Ask Photos ارتقا یافت
Google Photos با قابلیت هوش مصنوعی Ask Photos ارتقا یافت

گوگل فوتوز (Google Photos) اکنون جستجوی هوش مصنوعی را معرفی کرده است  و این می تواند بزرگترین ارتقای آن در سال های اخیر باشد. قابلیت جدید “Ask Photos” با توانایی گوگل جمینی...

بهترین دوربین برای یوتیوب | بررسی های تابستان ۲۰۲۴
بهترین دوربین برای یوتیوب | بررسی های تابستان ۲۰۲۴

اگر به تازگی وارد دنیای تولید محتوای یوتیوب شده اید، دوربین گوشی هوشمندتان احتمالاً بهترین و مقرون به صرفه ترین گزینه است. استفاده از آنچه که دارید، به شما این امکان...

جمنای لایو در اندروید به سبک تماس تلفنی تغییر می کند
جمنای لایو در اندروید به سبک تماس تلفنی تغییر می کند

گوگل همچنان در حال توسعه قابلیت های جمنای لایو است و اکنون این ویژگی در اندروید به اعلان های مشابه تماس های تلفنی تغییر کرده است. هفته گذشته، گوگل قابلیت “Talk Live about...