اخبارفناوری و تکنولوژی

معرفی عجله ای OpenAI مدل هوش مصنوعی GPT-4o

یکی از کارکنان OpenAI می‌گوید که این شرکت برای عرضه آخرین مدل هوش مصنوعی خود عجله کرده است.

به گزارش دنده6 : به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایش‌های ایمنی GPT-4o را انجام داده و قبل از اطمینان کامل از ایمنی این مدل، آن را معرفی کرده است. به گفته این فرد ناشناس، آن‌ها در اولین آزمایش ایمنی این مدل پیشرفته، شکست خورده بودند.

یکی از کارمندان ناشناس OpenAI به واشنگتن پست گفته است: «آن‌ها قبل از آنکه بدانند این مدل [GPT-4o] ایمن است، برنامه رونمایی از آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.» او می‌گوید که OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرد.

بااین‌حال، سخنگوی OpenAI به واشنگتن پست می‌گوید عرضه GPT-4o باعث نشده که در پرداختن به نکات ایمنی کم‌کاری شود. بااین‌حال منبع ناشناس اذعان می‌کند که جدول زمانی بررسی ایمنی این مدل به یک هفته فشرده شده بود.

نقض ایمنی هوش مصنوعی در OpenAI

ایمنی یکی از نکات مهم منشور OpenAI است، در این منشور بندی وجود دارد که می‌گوید OpenAI به سایر سازمان‌های رقیب کمک می‌کند تا در صورت دستیابی به AGI (هوش جامع مصنوعی)، به جای ادامه رقابت، ایمنی آن را ارتقا دهند. همچنین OpenAI ظاهراً مدعی است که مدل‌های اختصاصی خود را به دلایل ایمنی متن‌باز نمی‌کند.

بااین‌حال در چند وقت اخیر نگرانی‌ها پیرامون نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعه‌دهندگان مدل‌های بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل اعلام کرد: «توسعه هوش مصنوعی پیشتاز فعلی خطرات فوری و فزاینده‌ای برای امنیت ملی ایجاد می‌کند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به شیوه‌هایی که یادآور معرفی سلاح‌های هسته‌ای است، بی‌ثبات کند.»

پیش‌ازاین نیز، «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI ضمن استعفا گفته بود که طی سال‌های گذشته، فرهنگ و فرایند ایمنی‌سازی هوش مصنوعی در این شرکت جای خود را به عرضه محصولات پرزرق‌وبرق داده است. همچنین کارمندان فعلی و سابق OpenAI اخیراً نامه‌ای امضا کردند که در آن از این شرکت خواستند اقدامات ایمنی بهتری در پیش بگیرد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا