اخبارفناوری و تکنولوژی

باز شدن پای هوش مصنوعی به نشریات علمی

عضو هیئت‌علمی ایرانداک گفت: دلیل این‌که استفاده از هوش مصنوعی در پژوهش یک پارادایم جدید است این تقابل وجود دارد و در آینده استفاده از ابزارهای هوش مصنوعی پذیرفته می‌شود.

به گزارش دنده6 :  دکتر بهروز رسولی در کرسی ترویجی «اخلاق و سیاست هوش مصنوعی» از سری پیش‌نشست‌های هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار شد، در مورد دیدگاه نشریات علمی در استفاده پژوهشگران از هوش مصنوعی گفت: موضوعات مرتبط با هوش مصنوعی هنوز در آغاز راه است و هنوز پژوهشگران و تصمیم‌گیران به یک جمع‌بندی و توافق نرسیدند که به چه سمت و سویی باید حرکت کرد.

وی با اشاره به این‌که نشریات هسته اصلی زیست‌بوم پژوهش هستند، گفت: نشریات نقش مهمی در این زمینه ایفا می‌کنند و حتی مهم‌تر از بنگاه‌های تامین مالی و پژوهشکده‌ها هستند.

عضو هیئت‌علمی پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک) با اشاره به ذی‌نفعان مختلف امر پژوهش و نگارش در حوزه نشریات گفت: پدیدآورندگان، خوانندگان، سردبیران و افرادی که داوری که مقالات را داوری می‌کنند، ذی‌نفعان این حوزه هستند. تلاش این ذی‌نفعان موجب می‌شود که پیشرفت‌های علمی اتفاق بیفتد.

جبهه‌گیری «نیچر» در ممنوعیت استفاده از هوش مصنوعی

وی با اشاره به یافته‌های پژوهشی در زمینه در سیاست‌گذاری و جبهه‌گیری نشریات در مورد استفاده از ابزارهای هوش مصنوعی گفت: در مورد استفاده از هوش مصنوعی در نگارش و پژوهش سه دیدگاه وجود دارد. اولین دیدگاه یک دیدگاه سلب و سخت است که هرگونه استفاده از ابزارهای هوش مصنوعی را تحریم می‌کند. نشریات زیرمجموعه «نیچر» این رویکرد را دارند و هر گونه استفاده از ابزارهای هوش مصنوعی را ممنوع کردند. حدود ۶ درصد از کل نشریات استفاده از هوش مصنوعی را به طور کل ممنوع و تحریم کردند.

به گفته رسولی؛ نیچر اولین ناشری بود که به آن مقاله‌ای با همکاری هوش مصنوعی نوشته شده بود، ارسال شد که نام «چت‌ جی‌پی‌تی» به عنوان مولف دوم در مقاله آن ذکر شده بود. به همین دلیل این انتشارات در عمل انجام‌شده قرار گرفت و به این اقدام پاسخ فکر نشده داد.

وی با اشاره به دسته دوم نشریات که میانه‌رو هستند، توضیح داد: بخش دیگری از نشریات عنوان می‌کنند که پژوهشگران می‌توانند با شرایط خاص، کنترل‌شده و محدود از ابزارهای هوش مصنوعی استفاده کنند و ۹۴ درصد نشریات چنین رویکردی دارند.

عضو هیئت‌علمی ایرانداک با بیان این‌که بخش دیگری از نشریات استفاده از ابزارهای هوش مصنوعی را مجاز می‌دانند، گفت: این نشریات تا جایی که پدیدآوری را به خطر نندازد، استفاده از این ابزارها را مجاز می‌دانند. این نشریات عنوان می‌کنند حتی می‌توان از عکس‌های تولیدشده هوش مصنوعی استفاده کرد ولی نه این‌که تحلیل آن‌ها نیز به عهده هوش مصنوعی باشد.

وی با بیان این‌که این نشریات کم‌تر از یک درصد کل نشریات را تشکیل می‌دهند، اظهار کرد: نشریاتی که استفاده از هوش مصنوعی را مجاز ولی کنترل شده می‌دانند، ۳ اصل را مورد توجه قرار می‌دهند؛ اول اینکه از ابزارهای هوش مصنوعی مولد زمانی می‌توان استفاده کرد که برای بهبود زبانی و گرامر باشد؛ دوم؛ به هیچ عنوان نباید برای تولید متن و دیدگاه در مورد یک مسئله از این ابزارها استفاده کرد و سوم اینکه استفاده از ابزارهای هوش مصنوعی برای تولید و تغییر نمودار و artwork ممنوع است و تنها در حد تغییر رزولوشن و … از آن می‌توان استفاده کرد.

نیاز به استفاده از ابزارهایی برای بررسی «صداقت»

رسولی با اشاره به توسعه ابزارهای تشخیص سرقت علمی در دنیا گفت: توسعه این ابزارها در سال‌های گذشته در دنیا و ایران مورد توجه قرار گرفته است ولی در حال حاضر موضوع «Integrity detection» یا «تشخیص صداقت و درستی» در زمینه تشخیص استفاده از هوش مصنوعی باید مورد توجه قرار گیرد. برای مثال در حال حاضر یک ابزار به نام Proofig در زمینه تشخیص عکس‌ها در حال فعالیت است.

وی خاطر نشان کرد: این ابزارها هنوز در حال تکمیل هستند. اخیراً گوگل نیز ابزاری در حال توسعه دارد که ردپای هوش مصنوعی را تشخیص می‌دهد که آیا در یک اثر از هوش مصنوعی استفاده شده یا خیر. ابزارهای دیگری نیز هستند که بر اساس واژگان پر تکراری که توسط هوش مصنوعی استفاده می‌شود، متون بررسی می‌کند. ولی واقعیت این است که این ابزارها قابل اعتماد و کارآمد نیستند.

عضو هیئت‌علمی ایرانداک با بیان این‌که در حال حاضر همه به نوعی در حال استفاده از این ابزارها هستند، گفت: شاید به دلیل این‌که استفاده از هوش مصنوعی در پژوهش یک پارادایم جدید است این تقابل وجود دارد و من فکر می‌کنم در آینده استفاده از این ابزارها قابل پذیرش‌تر می‌شود.

وی با اشاره به تغییر نسل افزود: با وجود نسلی که حتی اصلاً دست‌خط ندارد و نمی‌تواند روی کاغذ بنویسد، شاید بتوان در آینده ریل‌گذاری‌های مناسب را در این زمینه انجام داد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا