هوش مصنوعی در «غار افلاطون» زندانی است؟
داده ها، در هسته خود، تفسیری از جهان ما و بخشهای مختلف آن هستند.
به گزارش دنده6،آنها صرفا یک ارائۀ گزینشی از مشاهدات، اندازه گیریها و اطلاعات در مورد پدیدههای مختلف هستند. از آنجایی که خود دادهها نامحدود هستند، فرآیند انتخاب داده محدود و در نتیجه ذاتاً سلیقهای و شخصی میشود.
اولین بار افلاطون بود که این ایده را مطرح کرد. او در تمثیل معروف «غار»، زندانیانی را ترسیم کرد که داخل غاری به زنجیر بسته شدهاند و رویشان به یک دیوار است در حالیکه آتشی نیز پشت سرشان شعله ور است. زندانیان فقط میتوانستند هر چیزی را از طریق سایههایی که در مقابلشان روی دیوار میافتاد درک کنند؛ آنها خود چیزها را نمیدیدند و هر چیزی را که از روبهروی آتش رد میشد فقط از طریق سایهاش روی دیوار میشناختند. به نظر میرسد این تمثیل همچنان در دوران ما کاربرد دارد و میتواند محدودیتهای درک و فهم ما را توضیح بدهد.
به گزارش فرادید؛ در یک زمینه امروزی، میتوانیم محدودیتهای مدلهای هوش مصنوعی را مشابه محدودیتهای زندانیان افلاطون تجسم کنیم. هوش مصنوعی با خود جهان و چیزهای موجود در آن ارتباطی ندارد بلکه فقط به دادههایی که ما به آن میدهیم نگاه میکند. سعی میکند این سایهها را معنا کند و همزمان احتمالات، ارتباطات، الگوها یا روندها را ارزیابی میکند تا بهترین پیش بینیهای موجود را انجام دهد. اساساً هوش مصنوعی در درون غار دادههای خودش زندانی است.
ده ها، در هسته خود، تفسیری از جهان ما و بخشهای مختلف آن هستند. آنها صرفا یک ارائۀ گزینشی از مشاهدات، اندازه گیریها و اطلاعات در مورد پدیدههای مختلف هستند. از آنجایی که خود دادهها نامحدود هستند، فرآیند انتخاب داده محدود و در نتیجه ذاتاً سلیقهای و شخصی میشود.
مدلهای هوش مصنوعی که ما بر مبنای این دادهها میسازیم مبتنی بر سادهسازی هستند تا از نظر اقتصادی مقرونبهصرفهتر و در عین حال همچنان برای ما معنادار باشند. در نتیجه، هیچ مدل هوش مصنوعی نمیتواند بازتابی کامل و جامع از دنیای واقعی باشد، بلکه تنها نسخهای ساده و جزئی از آن خواهد بود.
دادههایی که برای آموزش مدلها به آنها نیاز داریم نیز میتوانند ناقص، تحریفشده یا مغرضانه باشند. وقتی این اتفاق میافتد، مدلها چیزی را تولید میکنند که انسانها آن را بیمعنا تفسیر میکنند. خود مدلها نمیتوانند اشتباهات خود را از چشم انسانها ببینند، زیرا آنها فقط آنچه را که به آنها داده میشود میبینند. همانطور که سایههای افلاطون دید زندانیان را محدود میکرد، ما جهان را برای مدلهای هوش مصنوعی خود محدود میکنیم.
به همین خاطر است که مدلهای هوش مصنوعی اشتباهاتی از این قبیل انجام میدهند: پیشبینی اتوبوسی که با دو سال تاخیر میرسد، تشخیص کیف پولی که در واقع یک آجر است یا ایجاد تصویر گربهای با پنج پا! در جهان مدلها، همۀ اینها نتایج معتبری هستند. اما در دنیای ما، اینها پیشبینیهای بد، تشخیصهای نادرست یا توهم هستند.
اما اگر زمانی مدلهای هوش مصنوعی این امکان را پیدا کنند که فارغ از مشاهدات، تفسیرها و محدودیتهای ما، خودشان بتوانند خودشان را دربارۀ جهان آموزش بدهند، در آن صورت ممکن است استراتژیها و دیدگاههای منحصربهفرد خود را از جهان بسازند.
در یکی از بازیهایی که یک مدل شطرنج باز به اسم «آلفاگو» در برابر یک قهرمان انسانی به اسم لی سدول انجام میداد، آلفاگو حرکتی را انجام داد که کارشناسان در ابتدا آن را «احمقانه» خواندند، اما در نهایت، این حرکت «احمقانه» در پیروزی AlphaGo بسیار مهم بود. چنین موردی نشان میدهد که مدلهای هوش مصنوعی خودآموز میتوانند راه حلها و پدیدههایی را ببینند که انسانها نمیبینند.
افلاطون در تمثیل غار میگوید وظیفۀ فیلسوف این است که با خروج از غار و در نظر گرفتن ایدهها، کلیات، الگوها و مفاهیم مختلف درباره جهان بیشتر بیاموزد. با صعود از سایهها به کلیات و انتزاعات، ما شروع به درک جهان میکنیم و از درک فقط قلمرو مرئی به مفهوم سازی در قلمرو فکری و هوش و عقل حرکت میکنیم.
اما برای اینکه هوش مصنوعی فعلی غار را ترک کند و هوشمندی خود را توسعه دهد به زمان و منابع نیاز دارد. در این میان، باید به یاد داشته باشیم که سیستمهای هوش مصنوعی ما عمدتاً مدلهای تخصصی هستند که ما آموزش میدهیم و تغذیه میکنیم.
این مدلها در درک خود محدود هستند. ما در مرحلهای هستیم که هوش مصنوعی میتواند الگوها و پیش بینیها را تشخیص دهد، اما نمیتواند افکار شناختی یا انتزاعی را تولید کند. همچنین نیازی نیست که افلاطون باشیم تا به یاد داشته باشیم که هر چقدر هم که نتایج هوش مصنوعی متقاعد کننده باشد، باید تفکر انتقادی خودمان را حفظ کنیم و همیشه در نظر داشته باشیم که هوش مصنوعی همچنان در غار گیر افتاده است.