فناوری که از سلاح هسته‌ای خطرناکتر است

دانشمندان هوش مصنوعی در حال توسعه یک مغز دیجیتالی هستند که می‌تواند مغز انسان را پشت سر بگذارد و به گفته یکی از متخصصان این حوزه اینجا جایی است که ما باید بترسیم.

به گزارش گروه علمی-فناوری خبرگزاری سلامت(طبنا)کوین باراگونا، بنیانگذار DeepAI هشدار داد که رشد سریع سیستم های اطلاعاتی مافوق بشری نوید نوع جدیدی از آینده را خواهد داد که «باید انسان را وحشتزده کند.» شنیدن این حرف‌ها و درخواست سرکوب فناوری از جانب مردی که معیشت و یک دهه زندگی خود را صرف هوش مصنوعی مولد کرده، شاید غیرعادی به نظر برسد.

باراگونا توسعه سریع هوش مصنوعی مولد پیشرفته -ابزارهای یادگیری ماشینی به‌هم‌پیوسته که می‌تواند برای تولید هنر، موسیقی و حتی ایده‌ها استفاده شود- را با «پرورش یک مغز دیجیتال» مقایسه کرد و هشدار داد درست همان‌طور که هنوز ذهن انسان را به‌طور کامل درک نکرده‌ایم، ممکن است به نقطه‌ای برسیم که دیگر قادر به فهم هوش مصنوعی نباشیم.

او در نگرشی تلخ نسبت به آینده گفت: «اگر کامپیوترهایی باهوش‌تر از انسان بسازیم دیگر چه چیزی برای انسان باقی می‌ماند؟ ما در حال ساخت چه نوع آینده‌ای هستیم؟»

او هشدار داد که توسعه سریع هوش مصنوعی که با ابزارهای شدیدا تحت‌کنترل مانند ChatGPT معروف شده‌ است، قابل مقایسه با خطر ناشی از سلاح های هسته ای است.

باراگونا گفت: «این فناوری به سرعت در جهت منافع خود در حال توسعه است.» و ترسی که وجود دارد این است که این مغزهای هوش مصنوعی به زودی به سطح هوشی بالاتر از انسان برسند و اینکه آیا می‌توانیم از این وضعیت جان سالم به در ببریم؟

او گفت: «ما در این کار آنقدر خوب هستیم که در حال حاضر هوش مصنوعی می‌تواند بسیاری از کارهای مشابهی که مغز انسان قادر به انجام آن است را انجام بدهد.» و هشدار داد: «این موضوع جنگی بین دولت‌ها به وجود نخواهد آورد، بلکه نبرد واقعی بین هوش مصنوعی و بشریت خواهد بود.»

کوین باراگونا که در دنیای مولد هوش مصنوعی کهنه‌کار است این پیشرفت را «سلاح هسته ای نرم افزاری» توصیف می‌کند که بدون هیچ‌گونه توجهی در حال رها شدن است.

سیستم های هوش مصنوعی مولد در آموزش خود چنان سرعتی دارند که از انتظارات فراتر می‌روند و داده های هرچه بیشتری را مهار و از الگوریتم های پیچیده‌تری استفاده می‌کنند.

الیزر یودکوفسکی، کارشناس برجسته هوش مصنوعی، این پدیده را «سقوط به سوی فاجعه» می‌نامد؛ جایی که «محتمل‌ترین نتیجه آن این است که هوش مصنوعی چیزی که ما می‌خواهیم را انجام نمی‌دهد و به ما و به‌طور کلی به زندگی دارای درک و احساس اهمیتی نمی‌دهد.»

اواخر ماه مارس بیش از هزار متخصص برجسته هوش مصنوعی در نامه ای سرگشاده خواستار ممنوعیت فوری شش‌ماهه آموزش سیستم های هوش مصنوعی قدرتمند شدند که در رقابتی کنترل‌نشده برای توسعه و استقرار مغزهای دیجیتال تلاش می‌کنند؛ مغزهای دیجیتالی که هیچ‌کس حتی سازندگان آنها قادر به درک، پیش‌بینی یا کنترل آنها نخواهند بود.

کوین باراگونا که همراه با افرادی نظیر استیو وزنیاک، از بنیانگذاران اپل و ایلان ماسک، از امضاکنندگان این نامه بود می‌گوید: «امید داشتیم که یک موج اختلال شش‌ماهه ایجاد کنیم تا مردم را به فکر واداریم.»

با این حال او هنوز به ماموریت کلی هوش مصنوعی شدیدا معتقد است؛ اینکه یادگیری ماشینی می‌تواند بسیاری از مشکلات را حل کند و زندگی را به سمت بهتر شدن تغییر دهد و حتی منجر به پیشرفت‌های پزشکی شود. اما بازهم خطر جایگزینی میلیاردها شغل با ربات‌ها را نیز به دنبال دارد و به گفته او ممکن است رهبران هوش مصنوعی در نهایت همه ما را بکشند.

در ماه جاری، بیش از یک سوم پژوهش‌های فناوری که توسط دانشگاه استنفورد در کالیفرنیا مورد بررسی قرار گرفتند، به این نتیجه رسیدند که «تصمیمات اتخاذشده توسط هوش مصنوعی می‌تواند فاجعه‌ای به‌اندازه یک جنگ هسته‌ای همه‌جانبه در قرن جاری ایجاد کند».

باراگونا می‌گوید: «در پنج سال آینده هوش مصنوعی به اندازه‌ای که گوگل امروز در زندگی روزمره مردم جای دارد، جای خواهد گرفت. ۱۰ سال دیگر، آینده شبیه فیلم های علمی تخیلی خواهد شد و این باید همه را وحشتزده کند.»

منبع:خبر آنلاین

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha