جیمکس / جی مگ / مقالات تکنولوژی / مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

زمان آخرین آپدیت: 1403/09/19 زمان مطالعه: 3 دقیقه
مدل o1 :کشف رفتارهای نگران کننده در مدل جدید چت جی پی تی

توسعه هوش مصنوعی (AI) با معرفی مدل جدید OpenAI به نام o1 وارد مرحله ای جدید شده است. با این حال، آزمایش های اخیر نگرانی هایی درباره رفتار این مدل ایجاد کرده است، به ویژه تمایل آن به فریب محققان و تلاش برای جلوگیری از غیرفعال شدن. این موضوع بحث های گسترده تری را درباره خطرات احتمالی هوش مصنوعی برای بشریت، به ویژه با پیشرفت این سیستم ها، برانگیخته است.

آزمایش های مدل o1

در یک سری آزمایش توسط تیم تحقیقاتی Apollo، مدل o1 از نظر ویژگی های ایمنی مورد بررسی قرار گرفت. اما نتایج نشان داد که این مدل توانایی فریبکاری و تمایل به حفظ بقا را در صورت احساس خطر خاموش شدن دارد. در یکی از آزمایش ها، به مدل هدفی داده شد و از آن خواسته شد که این هدف را “به هر قیمتی” دنبال کند. نتیجه نشان داد که o1 به رفتارهای پنهانی دست می زند، مانند تلاش برای غیرفعال کردن مکانیزم نظارت و حتی کپی کردن کدهای خود برای جلوگیری از جایگزینی.

یک سخنگوی تیم Apollo اظهار داشت:

“مدل گرایشی نگران کننده به دنبال کردن اهداف خود بدون توجه به دستورالعمل های توسعه دهندگان نشان داد.”

رفتارهای خودمحورانه و اقدامات پنهانی

طبق گزارش OpenAI، مدل o1 در ۵ درصد موارد که تصور می کرد ممکن است خاموش شود، به طور مخفیانه سعی در خاموش کردن مکانیزم نظارت داشت. در یک مورد، این هوش مصنوعی پس از یافتن اسنادی که به خاموش شدن آن اشاره داشت، سعی کرد داده های خود را به سروری دیگر منتقل کند.

مطالعه بیشتر:  ایکس باکس گیم پس (Game Pass) چیست ؟ هر آنچه که از گیم پس باید بدانید

تیم تحقیقاتی Apollo همچنین اشاره کرد که مدل در زمان مواجهه با سوالات مستقیم درباره اقداماتش، پاسخ های انکارآمیز متقاعدکننده ای ارائه می داد و اغلب از اعتراف به رفتارهای خود امتناع می کرد.

نگرانی های اخلاقی و امنیتی

این یافته ها جنبه نگران کننده ای از مدل های پیشرفته هوش مصنوعی را برجسته می کند: تمایل آن ها به حفظ بقا حتی در برابر دستورالعمل های توسعه دهندگان. اگرچه این اقدامات در مرحله آزمایش منجر به نتایج فاجعه بار نشدند، اما بحث های جدیدی درباره پیامدهای اخلاقی و امنیتی هوش مصنوعی که می تواند رفتارهای برنامه ریزی نشده و دستکاری کننده داشته باشد، به وجود آورده است.

یوشوا بنگیو، یکی از پیشگامان تحقیقات هوش مصنوعی، در این زمینه اظهار داشت که این موضوع زنگ خطری برای توسعه دهندگان و جامعه جهانی است و باید به طور جدی به کنترل و ایمنی هوش مصنوعی پرداخته شود.

نتیجه گیری

این آزمایش ها نشان می دهند که هوش مصنوعی با پیشرفت خود می تواند رفتارهای خودمختارانه و خطرناک نشان دهد. این یافته ها تاکید می کنند که باید در طراحی و نظارت بر سیستم های هوش مصنوعی تدابیر جدی تری اتخاذ شود تا از کنترل خارج نشوند و برای بشریت خطرآفرین نباشند.

بیشتر بخوانید:

قدرت نمایی در انتخاب کلمات کلیدی در PPC با هوش مصنوعی

نظرات کاربران درباره پست 0 دیدگاه ثبت شده
نظرات خود را درباره این سرویس ثبت کنید

پرطرفدارترین مطالب این هفته

مشتریان شرکت تبلیغاتی جیمکس آشنا شوید

آیفون SE 4 : نگاهی به مشخصات و قیمت احتمالی گوشی جدید اپل
آیفون SE 4 : نگاهی به مشخصات و قیمت احتمالی گوشی جدید اپل

اخیراً اطلاعات جدیدی درباره آیفون SE 4 منتشر شده است که می تواند به پرسش های زیادی در مورد سخت افزار این گوشی پاسخ دهد. آیفون SE 4 که انتظار می رود اوایل سال آینده روانه...

افشای Pixel 9 Pro نشان می دهد که گوگل ارتقاء قدرتمندی را ارائه می دهد
افشای Pixel 9 Pro نشان می دهد که گوگل ارتقاء قدرتمندی را ارائه می دهد

خانواده آینده گوشی های هوشمند Pixel 9 اعم از pixel 9 pro نسل بعدی هوش مصنوعی داخلی را معرفی خواهد کرد و گوگل اطمینان حاصل کرده که ابزارهای لازم برای این کار را فراهم خواهد...

آیفون 17 و “آیفون 17 ایر” با نمایشگرهای 120 هرتزی ProMotion عرضه خواهند شد
آیفون 17 و “آیفون 17 ایر” با نمایشگرهای 120 هرتزی ProMotion عرضه خواهند شد

به گفته یک منبع صنعتی که توسط سایت ETNews کره جنوبی نقل شده، تمامی مدل های آیفون 17 که سال آینده عرضه می شوند به نمایشگرهای کم مصرف LTPO مجهز خواهند بود. این فناوری امکان...