اخبارفناوری و تکنولوژی

هوش مصنوعی ویسپر OpenAI حتی در هنگام رونویسی دچار توهم می‌شود

این مشکلات می‌تواند در زمینه تشخیص‌های پزشکی فاجعه بیافریند.

به گزارش دنده6 : ویسپر (Whisper) مدل هوش مصنوعی برای رونویسی گفتار است که سال ۲۰۲۲ OpenAI از آن رونمایی کرد. اما به‌ نظر می‌رسد این سرویس مشکلاتی جدی در دنبال‌کردن صحبت‌ها و بازنویسی آنهای دارد.

براساس گزارشی که Associated Press منتشر کرده، مهندسان نرم‌افزار، توسعه‌دهندگان و محققان دانشگاهی نگرانی‌های جدی خود درمورد ابزار ویسپر را ابراز کرده‌اند. ابزارهای هوش مصنوعی مولد به‌صورت کلی تمایل به هذیان‌ گفتن دارند اما نکته عجیب درمورد ابزار ویسپر این است که در رونویسی سخنان هم مشکلاتی دارد. در حالت عادی و وقتی که از چنین سرویسی استفاده می‌کنید، انتظار دارید این ابزار دقیقاً سخنان گفته‌شده را رونویسی کند.

ابزار ویسپر OpenAI نمی‌تواند سخنان را به‌دقت رونویسی کند

OpenAI

به گفته محققانی که از ویسپر استفاده کرده‌اند، این سرویس مواردی همچون تفسیرهای نژادی و درمان‌های پزشکی خیالی را در رونویسی‌های خود می‌گنجاند که می‌تواند بسیار خطرناک باشد. هم‌اکنون بسیاری از بیمارستان‌ها و مراکز درمانی مختلف از این ابزار در زمینه‌های پزشکی استفاده می‌کنند و رونویسی صحیح ممکن است به فاجعه منجر شود.

محققی از دانشگاه میشیگان که رونوشت جلسات عمومی را مطالعه کرده است، می‌گوید ابزار ویسپر در ۸ مورد از ۱۰ مورد رونویسی، دچار توهم شده است. همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسی‌های ویسپر را مطالعه کرده، می‌گوید در بیش از نیمی از این رونویسی‌ها موارد اشتباه و هذیان دیده می‌شود. علاوه‌براین، توسعه‌دهنده نیز می‌گوید در تمام ۲۶۰۰ ساعت رونویسی‌های این ابزار توهم پیدا کرده است.

سخنگوی OpenAI در واکنش به این خبر اعلام کرد این شرکت مداوم برای بهبود دقت مدل‌ها و کاهش توهم‌ها تلاش می‌کرد. او همچنین گفت سیاست‌های آن‌ها استفاده از ویسپر را «در زمینه‌های خاص تصمیم‌گیری با ریسک بالا» ممنوع می‌کند. OpenAI درنهایت از محققان برای به‌اشتراک‌گذاری یافته‌های خود تقدیر کرد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا