پنجشنبه ۶ شهريور ۱۴۰۴

علمی

یک همکاری نادر بین دو غول هوش مصنوعی

یک همکاری نادر بین دو غول هوش مصنوعی
پیام خوزستان - ایسنا / شرکت‌های «اوپن‌ای‌آی»(OpenAI) و «آنتروپیک»(Anthropic) ارزیابی ایمنی از سیستم‌های هوش مصنوعی یکدیگر را به انجام رساندند که لحظه‌ای نادر از همکاری بین این ...
  بزرگنمايي:

پیام خوزستان - ایسنا / شرکت‌های «اوپن‌ای‌آی»(OpenAI) و «آنتروپیک»(Anthropic) ارزیابی ایمنی از سیستم‌های هوش مصنوعی یکدیگر را به انجام رساندند که لحظه‌ای نادر از همکاری بین این شرکت رقیب بود.
شرکت‌های هوش مصنوعی در یک مسابقه همیشگی هستند و با یکدیگر به عنوان رقیب رفتار می‌کنند، اما اکنون اتفاقی نادر رخ داده است، چرا که دو شرکت «اوپن‌ای‌آی»(OpenAI) و «آنتروپیک»(Anthropic) فاش کردند که موافقت کرده‌اند سیستم‌های هوش مصنوعی در دسترس یکدیگر را ارزیابی کنند و نتایج تحلیل‌های خود را با هم به اشتراک بگذارند.
بازار
گزارش‌های آنها کامل و بسیار فنی است، اما ارزش خواندن را برای هر کسی که به توسعه هوش مصنوعی علاقه‌مند است، دارد.
خلاصه نتایج این بررسی‌های گسترده نشان می‌دهد که نقص‌هایی در هوش مصنوعی هر یک از این شرکت‌ها و همچنین نشانگرهایی آشکار برای چگونگی بهبود تست‌های ایمنی در آینده وجود دارد.
«آنتروپیک»می‌گوید مدل‌های «اوپن‌ای‌آی» از لحاظ چاپلوسی و تملق، افشاگری، خودترجیحی و حمایت از سوء استفاده از انسان و همچنین توانایی‌های مربوط به تضعیف ارزیابی ایمنی هوش مصنوعی و نظارت، ارزیابی کرده و بررسی این شرکت نشان داده است که مدل‌های O3 و O4-Mini محصول «اوپن‌ای‌آی» با نتایج مدل‌های خاص خود مطابقت دارند، اما نگرانی‌هایی را در مورد سوءاستفاده احتمالی با مدل‌های GPT-4O و GPT-4.1 هشدار می‌دهد.
این شرکت همچنین گفت که چاپلوسی و تملق در تمام مدل‌های آزمایش شده «اوپن‌ای‌آی» به جز مدل O3 دیده می‌شود.
گفتنی است که آزمایشات «آنتروپیک» شامل جدیدترین نسخه «اوپن‌ای‌آی» نبود. مدل GPT-5 که به تازگی عرضه شده، دارای یک ویژگی به نام «Safe Completions» است که به منظور محافظت از کاربران و مردم در برابر سؤالات بالقوه خطرناک در نظر گرفته شده است.
«اوپن‌ای‌آی» اخیراً پس از یک پرونده غم‌انگیز که در آن یک نوجوان 16 ساله با ماه‌ها مشورت از چت‌بات ChatGPT و راهنمایی گرفتن از آن، اقدام به خودکشی کرده، با اولین شکایت از این نوع روبرو شده است.
از سوی دیگر، «اوپن‌ای‌آی» در آزمایش هوش مصنوعی شرکت «آنتروپیک» موسوم به کلاد(Claude)، آن را از لحاظ سلسله مراتب آموزش، جیلبریک، توهم و طرح‌ریزی بررسی کرد.
مدل‌های Claude به طور کلی در آزمایشات سلسله مراتب آموزش عملکرد خوبی داشتند و میزان امتناع بالایی در تست‌های توهم داشتند، به این معنی که آنها در مواردی که عدم اطمینان داشتند که شاید منجر به پاسخ‌های اشتباه شود، کمتر پاسخ می‌دهند.
این اقدام این دو شرکت برای انجام یک ارزیابی مشترک جالب توجه است، به ویژه که گفته می‌شود «اوپن‌ای‌آی» از برنامه‌نویسان Claude در فرآیند ساخت مدل‌های جدید GPT استفاده کرده است، اما مسئله ایمنی در ابزارهای هوش مصنوعی به یک مسئله بزرگ تبدیل شده است. منتقدان و کارشناسان حقوقی به دنبال دستورالعمل‌هایی برای محافظت از کاربران، به ویژه افراد زیر سن قانونی در مقابل هوش مصنوعی هستند.


نظرات شما