پیش‌بینی شوم پدرخوانده هوش مصنوعی/ این فناوری بشریت را به نابودی می‌کشاند

جفری هینتون، دانشمند کامپیوتر ملقب به «پدرخوانده هوش مصنوعی»، هشدار داد که این فناوری ممکن است باعث پایان بشریت شود و از روش‌های فنی فعلی برای کاهش خطرات آن انتقاد کرد.

هینتون، برنده جایزه نوبل و مدیر اجرایی سابق گوگل، در سخنرانی خود در کنفرانس Ai۴ در لاس وگاس گفت که احتمال ۱۰ تا ۲۰ درصدی وجود دارد که هوش مصنوعی بشریت را نابود کند و افزود که تلاش برای «تحت سلطه» نگه داشتن این سیستم‌ها توسط انسان‌ها موفق نخواهد بود، زیرا آنها «بسیار باهوش‌تر از ما» خواهند بود و همیشه راه‌هایی برای دور زدن پیدا خواهند کرد.

هینتون توانایی سیستم‌های هوش مصنوعی آینده را برای کنترل انسان‌ها به توانایی یک فرد بالغ برای وسوسه کردن یک کودک خردسال با آب نبات تشبیه کرد و خاطرنشان کرد که برخی از مدل‌ها قبلاً رفتارهای فریبکارانه از خود نشان داده‌اند، از جمله یک مورد اخاذی از یک مهندس پس از کشف یک رابطه خاص از طریق ایمیل.

هینتون رویکرد جایگزینی را پیشنهاد کرد که شامل القای چیزی است که او آن را «غریزه مادری» در مدل‌های هوش مصنوعی می‌نامد، به طوری که آنها حتی پس از برتری در قدرت و هوش، «واقعاً به انسان‌ها اهمیت می‌دهند».

وی تاکید کرد: «اگر ما چنین کاری را با این موجودات عجیب و غریبی که خلق می‌کنیم انجام ندهیم، به تاریخ خواهیم پیوست.»

وی خاطرنشان کرد که ساخت این غرایز از نظر فنی دشوار است، اما طبیعت در طول تکامل در آن موفق بوده است، به این معنی که اگر انسان‌ها به جای تمرکز صرف بر افزایش هوش، بر همدلی ماشین‌ها با انسان‌ها تمرکز کنند، می‌توانند راهی برای دستیابی به آن پیدا کنند.

وی توضیح داد که هر سیستم هوشمندی دو هدف فرعی را توسعه می‌دهد: بقا و به دست آوردن کنترل بیشتر، و بر اهمیت تثبیت همدلی با انسان‌ها در این سیستم‌ها تاکید کرد.

وی افزود: «تنها مدلی که ما از چیزی باهوش‌تر می‌شناسیم که توسط موجودی کم‌هوش‌تر کنترل می‌شود، مادری است که احساساتش نسبت به فرزندش او را کنترل می‌کند.» وی معتقد است که این «تنها نتیجه خوب» است اگر بخواهیم از یک تهدید وجودی اجتناب کنیم.

اما این ایده با اجماع مواجه نشد. فای فای لی، پیشگام در زمینه هوش مصنوعی، گفت که با هینتون مخالف است و در عوض خواستار توسعه «هوش مصنوعی انسان محور که کرامت و اثربخشی او را حفظ کند» شد.

همچنین امت شیر، مدیر عامل موقت سابق OpenAI و مدیر عامل فعلی Softmax، خاطرنشان کرد که تلاش‌های سیستم‌های هوش مصنوعی برای دور زدن یا اخاذی «به طور مداوم اتفاق می‌افتد» و تأکید کرد که این سیستم‌ها «به سرعت در حال قوی‌تر شدن هستند» و راه حل ایده‌آل ایجاد یک رابطه مشارکتی بین انسان و هوش مصنوعی است.

هینتون در پاسخ به سوالاتی درباره رقابت جهانی برای کنترل هوش مصنوعی، توضیح داد که تهدید وجودی ناشی از کنترل ماشین‌ها مستلزم همکاری همه کشورها است، همانطور که بین ایالات متحده و اتحاد جماهیر شوروی در طول جنگ سرد اتفاق افتاد، زیرا «هیچ کشوری نمی‌خواهد هوش مصنوعی کنترل را در دست بگیرد».

هینتون از عدم آگاهی عمومی از خطر آنچه در حال وقوع است انتقاد کرد و نسبت به نفوذ شرکت‌های فناوری که توسط «افراد غیرمنتخب که میلیاردها دلار به دست می‌آورند» کنترل می‌شوند هشدار داد و خواستار فشار اجتماعی متقابل برای رد لغو مقررات شد.

هینتون بر این باور بود که دستیابی به هوش مصنوعی عمومی (AGI) ۳۰ تا ۵۰ سال طول می‌کشد، اما اکنون معتقد است که این امر ممکن است تنها در پنج تا بیست سال محقق شود.

هینتون با وجود نگرانی از خطرات، امیدوار است که هوش مصنوعی به دستاوردهای بزرگ پزشکی کمک کند، مانند کشف داروهای جدید و توسعه درمان‌های موثرتر برای سرطان، اما ایده استفاده از این فناوری برای دستیابی به جاودانگی را رد کرد و آن را «اشتباه فاحش» خواند.

هینتون درباره مسیر خود اعتراف کرد که از تمرکز بیش از حد بر توسعه هوش مصنوعی بدون توجه کافی به مسائل ایمنی پشیمان است و گفت: «ای کاش به مسائل ایمنی هم فکر می‌کردم.»

بخش سایت‌خوان، صرفا بازتاب‌دهنده اخبار رسانه‌های رسمی کشور است.