آیا هوش مصنوعی ضد شکننده است؟
پتانسیل ناخوشایند مداخله انسان در هوش مصنوعی
پتانسیل ناخوشایند مداخله انسان در هوش مصنوعی
به گزارش علمی نیوز و به نقل از Psychology Today، ما در بحبوحه انقلاب هوش مصنوعی (AIR) هستیم ، عصر بزرگ بعدی در تاریخ نوآوری های تکنولوژیکی . هوش مصنوعی (AI) در سطح جهانی نه تنها در تحقیقات علمی ، بلکه در تجارت ، امور مالی ، مصرفکننده ، هنر ، مراقبتهای بهداشتی ، ورزشهای الکترونیکی ، فرهنگ پاپ و ژئوپلیتیک نیز در حال افزایش است . همانطور که هوش مصنوعی به طور فزاینده ای فراگیر می شود، مهم است که در سطح کلان بررسی شود که آیا هوش مصنوعی از بی نظمی سود می برد یا خیر. Antifragile اصطلاح و مفهومی است که توسط نسیم نیکلاس طالب، تاجر سابق کمیت و خودخوانده «فلانور» و نویسنده کتاب پرفروش نیویورک تایمز «قوی سیاه: تأثیر امر بسیار غیرممکن» مطرح شده است. طالب در «ضدشکننده: چیزهایی که از اختلال به دست میآیند»، ضدشکننده را «دقیقاً متضاد شکننده» توصیف میکند که «فراتر از انعطافپذیری یا استحکام» است. به گفته طالب، چیزهای ضد شکننده نه تنها «از هرج و مرج به دست میآیند»، بلکه «برای بقا و شکوفایی به آن نیاز دارند». آیا هوش مصنوعی ضد شکننده است؟ پاسخ ممکن است آنقدر که به نظر می رسد شهودی نباشد.
پیشرفتهای اخیر در هوش مصنوعی عمدتاً به دلیل بهبود تواناییهای تشخیص الگو از طریق یادگیری عمیق است که زیرمجموعهای از یادگیری ماشین است، که روشی از هوش مصنوعی است که به برنامهنویسی صریح نیاز ندارد. یادگیری با تغذیه مجموعه داده ها از طریق دو یا چند لایه پردازش غیرخطی به دست می آید. هر چه حجم و سرعت پردازش داده ها بیشتر باشد، کامپیوتر سریعتر یاد می گیرد.
پردازش سریعتر عمدتاً از طریق قابلیتهای پردازش موازی GPU (واحد پردازش گرافیک)، در مقابل پردازش سریال CPU (واحد پردازش مرکزی) به دست میآید. جالب اینجاست که بازیهای رایانهای به سرعت بخشیدن به پیشرفتها در یادگیری عمیق کمک کرده است و بنابراین در رونق فعلی هوش مصنوعی نیز نقش دارد. پردازندههای گرافیکی که در ابتدا بیشتر برای رندر کردن گرافیک بازیهای رایانهای استفاده میشدند، اکنون بخشی جداییناپذیر از معماری یادگیری عمیق هستند. برای نشان دادن، تصور کنید سه چرخ دستی بستنی وجود دارد که مشتریان در هر کدام صف کشیده اند و فقط یک اسکوپ. در پردازش سریال، هدف اسکوپر این است که سرویس دهی همه گاری ها را به طور همزمان به پایان برساند و این کار را با جهش بین چرخ دستی ها انجام می دهد که در یک زمان چند مخروط را بیرون می کشد قبل از اینکه سرویس بعدی را انجام دهد. در پردازش موازی، به جای تنها یک اسکوپر، چندین اسکوپر وجود دارد. یک مشتری فهیم سفارش را در همان زمان بین چرخ دستی ها تقسیم می کند تا به نتایج سریع تری دست یابد.
یادگیری عمیق از حجم بالا و مجموعه گسترده ای از داده ها به دست می آید. دسترسی به مجموعههای دادههای بزرگ و متنوع، همراه با دادههای پرت، برای به حداقل رساندن خروجیهای مغرضانه یا با کیفیت پایین ضروری است. نوشیدن از دادهها یک عامل استرسزا برای یادگیری عمیق نیست، بلکه یک سناریوی مطلوب است. یادگیری ماشینی با داده های بزرگ رشد می کند و نظم را از هرج و مرج اطلاعات به ارمغان می آورد. یادگیری عمیق هوش مصنوعی از تنوع داده ها به دست می آید.
هشدار به ضد شکنندگی ذاتی یادگیری عمیق، خطر بالقوه پیامدهای نامطلوب تصادفی ناشی از اثرات ناخوشایند ناشی از مدیریت ناقص انسانی است . طالب در «ضد شکننده» از عبارت «یاتروژنیک» به جای عبارت «عوارض جانبی ناخواسته مضر» استفاده میکند که ناشی از «مداخلهگرایی ساده لوحانه» است. اگرچه هوش مصنوعی یک سیستم مبتنی بر ماشین است، اما در نهایت توسط انسان ایجاد و مدیریت می شود. پیامدهای ناخواسته بالقوه زیادی وجود دارد که می تواند ناشی از مداخله انسان در مجموعه داده ها و الگوریتم های یادگیری عمیق هوش مصنوعی باشد. قرار دادن نان کپک زده در بهترین عملکرد توستر جهان همچنان منجر به نان تست نابهینه می شود.
ضرب المثل کلاسیک علوم کامپیوتر "آشغال داخل، زباله بیرون" (GIGO) با یادگیری عمیق طنین انداز می شود. اپراتورهای انسانی تا حد زیادی در مورد اندازه مجموعه داده، منبع(ها)، انتخاب، زمان بندی، فرکانس، برچسب گذاری و لغو دستی سیستم هوش مصنوعی تصمیم می گیرند. برنامه نویسان انسانی که الگوریتم های هوش مصنوعی را ایجاد می کنند، معیارها و معیارهای مورد استفاده برای رتبه بندی سیستم، اولویت بندی، ارتباط، طبقه بندی و فیلتر را تعریف می کنند. هنگامی که یک نقطه داده قابل توجه وجود ندارد، برنامه نویسان ممکن است با ایجاد نقاط داده مصنوعی مداخله کنند. برنامه نویسان انسانی در مورد الگوریتم های تنظیم تصمیم می گیرند. اثر ناخوشایند بالقوه مداخله انسانی ممکن است شامل خروجی مغرضانه، تشخیص الگوی ضعیف، نتایج اریب، الگوریتمهای معیوب، وزنهای نامناسب، ویژگیهای نادرست، و مثبت یا منفی کاذب باشد. نان تازه را در توستر قرار دهید، اما سطح حرارت را در طول فرآیند خیلی زیاد یا کم تنظیم کنید، ممکن است نتایج ناخواسته ای مانند نان تست سوخته یا نیم پز ایجاد کند. بنابراین اگرچه یادگیری عمیق هوش مصنوعی ضد شکننده است، اما این عامل انسانی است که تمایل به شکننده شدن دارد.
این سؤال را مطرح می کند که آیا می توان از هوش مصنوعی برای جایگزینی نقاط مداخله انسانی - یک سیستم هوش مصنوعی خود تنظیم کننده استفاده کرد. در تئوری، این امکان پذیر است. هوش مصنوعی می تواند برای تولید و مدیریت سایر برنامه های هوش مصنوعی ایجاد شود. برای مثال، برنامههای تخصصی هوش مصنوعی میتوانند برای تمرکز بر کارهایی مانند انتخاب دادهها برای مجموعههای آموزشی، پرچمگذاری دادههای پرت، پیشبینی مثبت یا منفی کاذب، پیشنهاد نقاط داده مصنوعی برای الگوریتمها و بسیاری از عملکردهای دیگر ایجاد شوند. یک سیستم اصلی هوش مصنوعی را تصور کنید که شبکه ای از برنامه های تخصصی هوش مصنوعی را مدیریت می کند. در طول پردازش، هوش مصنوعی فراگیر، هوش مصنوعی متخصص را برای انجام وظیفه ای که زمانی نیاز به مداخله انسانی داشت، فعال می کند.
این یک سیستم بزرگ و پیچیده است و اخطارهای زیادی برای این رویکرد یادگیری عمیق هوش مصنوعی خودتنظیمی وجود دارد. یکی از نگرانکنندهترین ویژگیهای یک سیستم یادگیری عمیق هوش مصنوعی خودتنظیمی، افزایش احتمال «اثر پروانهای» است - این مفهوم که تفاوتهای کوچک در یک سیستم پویا میتواند پیامدهای گسترده و گستردهای را به همراه داشته باشد. ادوارد لورنز، استاد هواشناسی MIT، پدر نظریه آشوب و اثر پروانه ای است. اصطلاح اثر پروانه ای توسط لورنز در مقاله خود با عنوان "پیش بینی پذیری: آیا تکان دادن بال های یک پروانه در برزیل باعث ایجاد گردباد در تگزاس می شود؟" [1]. در این مورد، میزان اندک مداخله انسان در ایجاد یک سیستم هوش مصنوعی خودتنظیمی در هر یک از برنامههای مؤلفه هوش مصنوعی مدولار آن میتواند باعث تفاوتهای عظیم در خروجی کلی سیستم هوش مصنوعی شود.
بنابراین اکنون ما ثابت کردهایم که اگرچه فناوری یادگیری عمیق هوش مصنوعی به خودی خود ذاتاً ضدشکننده به نظر میرسد، اما پاشنه آشیل آن، اثرات ناخوشایند احتمالی ناشی از مداخله انسانی، منبع آسیبپذیری و شکنندگی سیستمیک است. ایجاد یک سیستم هوش مصنوعی خودتنظیمی، با توجه به حساسیت آن به اثر پروانه ای لورنز، شکننده تر است - هر گونه خطای انسانی در راه اندازی اولیه سیستم در هر یک از اجزای اولیه آن، چه داده ای یا الگوریتمی، می تواند باعث ایجاد انبوه شود. خطاهای خروجی بهترین الگوریتم های طراحی شده هوش مصنوعی با بهترین مجموعه داده ها هنوز در معرض شکنندگی انسان هستند. هوش مصنوعی ذاتاً شکننده خواهد بود. روشی که انسانها سیستم هوش مصنوعی را مدیریت میکنند، استحکام کلی و تحمل عیب آن را تعیین میکند. موفقیت آینده هوش مصنوعی به توانایی انسان و ماشین برای "یادگیری" بهترین شیوه ها در طول زمان با هم بستگی دارد - در حال تکامل در همزیستی.