جمعه, ۲ آذر ۱۴۰۳ / بعد از ظهر / | 2024-11-22
تبلیغات
تبلیغات
کد خبر: 123929 |
تاریخ انتشار : ۱۷ اردیبهشت ۱۴۰۲ - ۲۰:۳۱ |
121 بازدید
۰
3
ارسال به دوستان
پ

محقق سابق OpenAI می‌گوید اگر هوش مصنوعی تصمیم به مرگ بشر بگیرد، این‌ کار را انجام خواهد داد. به گزارش ادراک خبر؛ یکی از محققان امنیتی OpenAI زنگ خطر را درمورد چشم‌انداز بسیار تیره‌ای به‌صدا درآورده است که نشان می‌دهد هوش مصنوعی بشر را نابود خواهد کرد. پل کریستیانو، عضو سابق واحد امنیت OpenAI در […]

محقق سابق OpenAI می‌گوید اگر هوش مصنوعی تصمیم به مرگ بشر بگیرد، این‌ کار را انجام خواهد داد.

به گزارش ادراک خبر؛ یکی از محققان امنیتی OpenAI زنگ خطر را درمورد چشم‌انداز بسیار تیره‌ای به‌صدا درآورده است که نشان می‌دهد هوش مصنوعی بشر را نابود خواهد کرد.

پل کریستیانو، عضو سابق واحد امنیت OpenAI در اوایل هفته‌ی جاری در پادکست Bankless گفت: «من فکر می‌کنم شاید چیزی حدود ۱۰ تا ۲۰ درصد احتمال دارد هوش مصنوعی بر بشر مسلط شود و تصمیم به مرگ انسان‌ها بگیرد و من این موضوع را کاملاً جدی می‌گیرم.»

کریستیانو هنگام بحث درمورد احتمال نابودی بشر توسط هوش مصنوعی، برخلاف الیزر یودکوفسکی که سناریوی نابودگر مبتنی‌بر هوش مصنوعی را مطرح کرد، فکر می‌کند نابودی بشر با این فناوری به‌تدریج رخ خواهد داد.

کریستیانو گفت: «به‌نظر من حدود یک‌ سال تا ایجاد هوش مصنوعی بزرگی که سرعت رشد زیادی داشته باشد فاصله داریم.»

فیوچریسم می‌نویسد، وقتی هوش مصنوعی از آستانه‌ی احساسات انسانی عبور کرد، همه‌ی شرط‌ها از بین خواهند رفت. کریستیانو می‌گوید: «به‌طور کلی امکان دارد مدت کوتاهی پس‌ از دستیابی به سیستم‌های هوش مصنوعی در سطح انسانی، احتمال نابودی بشر با این فناوری به ۵۰ درصد افزایش یابد.»

درحالی‌که OpenAI ادعا دارد هدفش همسو کردن هوش عمومی مصنوعی (AGI) با ارزش‌های انسانی است و قصد دارد این فناوری را در راستای نیت انسان‌ها توسعه دهد، مفهومی مثل AGI باعث می‌شود محققانی مثل کریستیانو به جنبه‌ی منفی موضوع نیز فکر کنند.

لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط ادراك خبر در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید