به گزارش هوش مصنوعی و به نقل از Psychology Today، مردم، ریل ها را محکم بگیرید. ممکن است در مسیر سختی در پیش باشیم. نه، منظور من از خودکامگی در سراسر جهان، تغییرات آب و هوایی ، یا میکروپلاستیکها، یا حتی احیای ابر آتشفشانهای خفته نیست. من در مورد ظهور ماشین ها صحبت می کنم. یا به طور دقیق تر، توسعه هوش عمومی مصنوعی (AGI). نگرانی واقعی در جامعه محاسبات شبکه عصبی وجود دارد که ما به سرعت در حال نزدیک شدن به نقطه ای هستیم که رایانه ها شروع به فکر کردن می کنند - جایی که AGI، از طریق ظرفیت روزافزون، سرعت پردازش، پیوند سریال و محاسبات کوانتومی، تنها نخواهد بود. میتوانند در شطرنج ما را شکست دهند، ماشینهای بهتری طراحی کنند یا موسیقی بهتری بسازند - آنها میتوانند در هر جنبهای از زندگی از ما دورتر فکر کنند، از ما دوری کنند.
چنین سیستمهایی که قبلاً قادر به یادگیری هستند، اطلاعات را با سرعتی که نمیتوانیم تصور کنیم، مصرف میکنند و فرض میکنند - با دسترسی فوری به تمام دانش کسبشده، همیشه. و آنها هیچ مشکلی در به خاطر سپردن آموخته های خود نخواهند داشت، یا یادگیری را با احساسات، ترس ها، خجالت ، سیاست و امثال آن درهم نمی ریزند. و هنگامی که با مشکلی مواجه میشوند، میتوانند تقریباً فوراً تمام نتایج ممکن را بسنجید و بلافاصله به «راهحل بهینه» دست یابند. در این مرحله، خریدار مراقب باشد.
مسلح به چنین ابرقدرتهایی، چقدر طول میکشد تا سیستمهای مذکور برتری شناختی خود را بر ما تشخیص دهند و گونههای ما را از نظر فکری پیچیدهتر از جانوران میدان یا سگ خانواده ببینند؟ یا اینکه ما را به عنوان یک مزاحم ببینند (آلوده کننده، مکیدن منابع طبیعی، کند کردن همه پیشرفت ها با ناکارآمدی های ذاتی ما). یا بدتر از آن، به ما به عنوان یک تهدید نگاه کنند - تهدیدی که به راحتی می توان آن را از بین برد. افراد برتر در این زمینه به وضوح می گویند که زمانی که AGI بتواند ما را در پردازش شناختی شکست دهد، همانطور که به صورت تصاعدی انجام می شود، دیگر تحت کنترل ما نخواهد بود و می تواند به تمام مواد مورد نیاز، در سطح جهانی، برای خلاص شدن از شر دسترسی پیدا کند. از ما به میل خود حتی بدون اینکه نسبت به ما ضدیتی نداشته باشیم، با یک درخواست نادرست، ممکن است تصمیم بگیرد که حذف ما راه حل ایده آلی برای یک مشکل است. به عنوان مثال: "هال، لطفا مشکل گرم شدن کره زمین را برای ما حل کنید."
محاسبات شبکه عصبی
دانشمندان AGI برای دههها تلاش کردهاند تا ماشینهایی بسازند که مشابه سیستمهای عصبی فوقشبکهای دوتایی مغز ما را پردازش کنند. و با سرعت بخشیدن به قابلیت های الکترونیکی آنها موفق شده اند - یا بسیار نزدیک هستند. سیستمهایی آنلاین میشوند که مانند سیستم ما کار میکنند - فقط بهتر.
و مالش وجود دارد. مغز ما در آزمایشگاه کنار هم قرار نگرفت. آنها با آزمون و خطای تکاملی در طول هزاران سال، با زمینه ای فراگیر توسعه یافتند: بقا. و جایی در طول مسیر، بقا با تبدیل شدن ما به موجودات اجتماعی بهینه شد - در واقع با تبدیل شدن ما به موجوداتی وابسته به اجتماعی. در مواجهه با خطرات بینهایت این جهان، گروههای تعاونی گونههای ما از وجود مستقل و «کابوی تنها» بهرهمند شدند. با این اتفاق، زمانی که ما به عنوان افراد وسوسه شدیم مستقیم ترین رویکرد را برای ارضای مستقل خود در پیش بگیریم، یک سری از غلبه های شناختی انتقادی به وجود آمد. در عوض، شروع کردیم به در نظر گرفتن تأثیر اعمال خود بر دیگران. ما هوش هیجانی ، همدلی و شفقت و مفاهیم دوستی ، سخاوت ، مهربانی، حمایت متقابل، مسئولیت پذیری و از خودگذشتگی را توسعه دادیم. رفاه دوستان، خانواده، قبیله ما، جانشین آسایش، سود و حتی بقای شخصی ما شد.
اکثر ما جامعه شناسی نیستیم
بنابراین، ما شناخت خود را با احساسات رنگ آمیزی کردیم (برای کمک به تقسیم ارزش به روابط مختلف، موجودیت ها و رویدادهای زندگی - فراتر از تأثیر آنها یا ارزش آنها برای ما) و احترام عمیق برای زندگی یکدیگر. ما یاد گرفتیم که قبل از اقدام، تردید و تحلیل کنیم و عواقب اقدامات مورد نظر خود را در نظر بگیریم. زمانی که بیش از حد خودخواهانه رفتار میکردیم ، احساس گناه میکردیم ، بهویژه زمانی که این کار را به ضرر دیگران انجام میدادیم. به عبارت دیگر، ما وجدان ها را رشد دادیم. مگر اینکه ما جامعه شناس بودیم. بعد ما اهمیتی ندادیم. سپس، ما صرفاً در خدمت خودمان عمل کردیم.
اما آیا سیستمهای AGI ما جامعهشناس خواهند بود؟
آیا این نقطه اصلی چیزی نیست که ما را در شب بیدار نگه می دارد، وقتی که به برتری ماشین های فکرمان فکر می کنیم؟ آیا آنها جامعه گرا خواهند بود ؟ در واقع، چگونه می توانند نباشند؟ چرا آنها در مورد ما لعنت می کنند؟ آنها تحت فشار میلیون ها سال تکاملی قرار نخواهند گرفت که معماری شناختی ما را شکل داده است. و حتی اگر بتوانیم فرآیند را در طراحی آنها تقلید کنیم، چه چیزی باعث می شود باور کنیم که آنها به طور مشابه پاسخ خواهند داد؟ آنها به هر حال ماشین هستند. آنها ممکن است مانند ما فکر و پردازش کنند، اما هرگز دقیقاً شبیه ما نیستند. سیمها و نیمههادیها، نورونها و سیناپسها زنده، همیشه در جریان نیستند.
چه مهندسی برای اطمینان از نگرانی بیوقفه در مورد گلولههای گوشتی گذرا که آنها را ایجاد کردهاند، برای ارزشگذاری برای زندگی هر انسان مورد نیاز است؟ چگونه در همدلی و همدردی برنامه ریزی می کنید؟ چه چیزی در درون آنها انگیزه، نیاز، وسواس، مراقبت و محافظت از همه ما را تضمین می کند، حتی اگر غیرمنطقی باشد، حتی زمانی که به طور بالقوه برای وجود خودشان مضر باشد؟
شاید، از طریق محاسبات کوانتومی و شبکههای بیشپیوسته، ما به نحوی کار شایستهای برای ایجاد سیستمهای آگاهانه اجتماعی، انسان محور و فداکار انجام دهیم. شاید آنها حتی در چنین کارهایی از ما بهتر باشند. اما چه چیزی می تواند جلوی یک مستبد در سرزمینی دور را بگیرد که « وجدان » را از سیستم های خود حذف کند، با این هدف که آنها را شیطانی تر، بی رحم تر و ظالم تر کند؟