به گزارش علمی نیوز و به نقل از Psychology Today، هوش مصنوعی مولد در نوامبر 2022 با ظهور ChatGPT وارد صحنه شد و بسیاری از مردم، از جمله من، از هوش آن شگفت زده شدهاند. به عنوان مثال، به نظر می رسد که توانایی در سطح انسانی برای تولید و ارزیابی فرضیه های توضیحی دارد. اما این مدل ها توسط شکاکان برجسته از جمله نوام چامسکی و آلیسون گوپنیک به چالش کشیده شده اند.
آیا هوش مصنوعی قادر به توضیح نیست؟
در مقالهای در نیویورک تایمز، زبانشناس برجسته نوام چامسکی و همکارانش قاطعانه استدلال میکنند که ChatGPT و امثال آن با مفهومی اساساً معیوب از زبان و دانش عمل میکنند. آنها ادعا می کنند که اتکای آنها به یادگیری ماشین و تشخیص الگو آنها را ناتوان از توضیح می کند (چامسکی، رابرتز و واتومول 2023):
به نظر می رسد این استدلال مبتنی بر ایده های کلی در مورد یادگیری ماشین است، نه بر اساس بررسی آنچه ChatGPT در واقع انجام می دهد. بازجویی خود من نشان می دهد که ChatGPT در استدلال علّی و خلاف واقع خود بسیار پیچیده است.
از ChatGPT 4 پرسیدم وقتی شخصی که سیبی در دست دارد دست را باز می کند چه اتفاقی می افتد. این برنامه با یک پاراگراف 100 کلمه ای پاسخ داد که بیان می کرد سیب به دلیل نیروی گرانش مطابق با قوانین حرکت نیوتن سقوط می کند. وقتی از ChatGPT پرسیده شد که اگر عقربه باز نمی شد چه اتفاقی می افتاد، ChatGPT پاسخ داد که سیب نمی افتاد زیرا نیروی حاصل از دست نیروی گرانش را متعادل می کند.
حتی تاثیرگذارتر، ChatGPT به من پاسخ خوبی به این سوال داد که اگر گرانش وجود نداشت و دست باز می شد چه اتفاقی می افتاد. می گفت که سیب نمی افتد زیرا بدون گرانش هیچ نیرویی آن را به سمت پایین نمی کشد. ChatGPT 3.5 پاسخ های مشابه اما مختصری می دهد. بر این اساس، ادعاهای چامسکی در مورد محدودیتهای ChatGPT با عملکرد آن به عنوان مثال خودش رد میشود. پاسخهای مدل Gemini گوگل مشابه ChatGPT است.
دریافتهام که ChatGPT نه تنها میتواند در مورد درستی یا نادرستی شرطهای خلاف واقع قضاوت منطقی کند، بلکه در مورد چگونگی انجام این کار نیز به طرز شگفتآوری پیچیده است. این مقاله چندین رویکرد را برای مشکل دشوار ارزیابی صدق شرطهای خلاف واقع، از جمله معناشناسی احتمالی جهان مورد علاقه برخی فیلسوفان، و مدلسازی علی مورد علاقه برخی از محققان هوش مصنوعی، ترسیم میکند.
اگر معتقد نیستید که ChatGPT در استدلال خلاف واقع عالی است، پیشنهاد میکنم برای مثال در مورد اینکه اگر ایالات متحده بمبهای اتمی را در ژاپن در سال 1945 نمی انداخت چه اتفاقی میافتاد، از آن سؤال کنید.
آیا هوش مصنوعی می تواند نوآوری کند؟
آلیسون گوپنیک یک روانشناس رشد است که به دلیل تحقیقاتش در مورد استدلال علّی پیچیده در کودکان مشهور است. او و همکارانش استدلال میکنند که مدلهای جدید هوش مصنوعی در تقلید عالی هستند، اما از نوآوریهایی که کودکان کوچک میتوانند انجام دهند ناتوان هستند (Yiu، Kosoy و Gopnik، 2023؛ Kosoy و همکاران، 2023).
این استدلال بر اساس شکست مدل زبان بزرگ LaMDA (تولید شده توسط Google) در انجام یک کار استنتاج علّی معروف است. در این کار، کودکان میتوانند تعیین کنند که کدام اشیاء «بالیک» هستند یا نه بر اساس این که آیا دستگاه را راهاندازی میکنند یا نه بر اساس ویژگیهای غیرعلّی شکل و رنگ.
من از ChatGPT خواستم تا نسخهای از مشکل تشخیص بلیکت را بر اساس آزمایش اولیه Gopnik در سال 2000 حل کند (Gopnik و Sobel، 2000). من عبارت "blicket" را با "gooble" جایگزین کردم تا ChatGPT نتواند به سادگی پاسخ را از مقالات منتشر شده جستجو کند. ChatGPT استنباط کرد که خاموش کردن دستگاه به جای شکل یا رنگ، ویژگی کلیدی است و پاسخ درستی در مورد اینکه کدام شی یک گوبل است، دریافت کرد.
علاوه بر این، هنگامی که از ChatGPT پرسیده شد که چگونه به نتیجه رسیده است، ChatGPT استدلال علّی پیچیده ای را با فرضیه هایی در مورد عواملی که ممکن است ماشین را فعال کند، توضیح داد. هنگام پرس و جو، گزارش داد که از احتمالات بیزی استفاده نمی کند زیرا احتمالات مربوطه در دسترس نبود. فکر می کنم در مورد بچه ها هم همینطور است.
من معتقدم که این تحلیل آنقدر ظریف است که از طریق یادگیری تقویتی توسط انسان ها به جای آموزش از روی مثال ها تولید شده باشد. بنابراین دلیلی نمی بینم که باور کنم ChatGPT صرفاً تقلیدی است و نه ابتکاری، به ویژه با توجه به نمونه های زیادی از شکل گیری فرضیه های خلاقانه که پیدا کردم.
من شخصاً شکست قبلی گوپنیک و همکارانش در یافتن استدلال علّی در سطح کودک را به استفاده آنها از یک مدل منسوخ شده نسبت میدهم. گوگل جایگزین LaMDA با جمینی شده است، با پارامترهای بسیار بیشتر، و همچنین مانند کودکان در تست بلیکیت رفتار می کند. من پیشبینی میکنم که ChatGPT 4، Gemini، Claude 3، و Llama 3 میتوانند بسیاری از کارهای استدلالی دیگر که گوپنیک و همکارانش در کودکان مطالعه کردهاند، انجام دهند.
به نظر من، درک ChatGPT از علیت پیچیده است، حتی اگر فاقد تجربیات حسی و عاطفی باشد که بخشی از درک انسان از علل و معلول است. اما آن و سایر مدل های پیشرفته هوش مصنوعی در حال حاضر توضیح، درک و خلاقیت را نشان می دهند.