Итак, хватайте попкорн и готовьтесь к решающей битве: соучредитель Эфириума и эксперт по созданию мемов, Виталик Бутерин, только что поделился на платформе X весьма жуткими предсказаниями о наших повелителях искусственного интеллекта. 🍿👀 Скажем прямо, это настоящий фильм ужасов, ребята!
Инвестировал в Теслу, потому что нравится машина? Это хороший старт. А теперь давай разберемся, что такое мультипликаторы и почему это важно.
Начать разбиратьсяТем временем, в сверкающем царстве Илона Маска, он занят рисованием картины будущего, в котором мы все нежимся на пляже, пока роботы готовят нам соевые латте и обеспечивают наш «универсальный высокий доход» — ведь если кто и может гарантировать, что мы все будем потягивать напитки с маленькими зонтиками, пока роботы выполняют тяжелую работу, то это определенно Илон. 🍹🤷♀️
Виталик Бутерин выражает обеспокоенность по поводу искусственного интеллекта.
Всё началось с сообщения от пользователя по имени «Чайник Юты» (очевидно, у его родителей был талант к именованию), который спросил, а что, если обучить искусственный интеллект действительно заботиться о человеческих ценностях? То есть, кому вообще нужно уважение к человечеству, верно? 😬🙄
Этот пользователь был очень взволнован, утверждая, что последовательные человеческие ценности настолько же реальны, как Снежный человек. Он высказал серьезные опасения по поводу проблем согласования ИИ, что, по сути, является витиеватым способом сказать, что ИИ менее надежен, чем обычная кошка. 🐱✨
мы знаем много вещей, которые явно противоречат человеческим ценностям (например, убийство или заключение в тюрьму невинных людей).
и аргумент заключается в том, что мы недостаточно хороши в согласовании, чтобы гарантировать, что единственная сверхразумная система искусственного интеллекта избежит _даже этого_.
— vitalik.eth (@VitalikButerin) 25 августа 2025 г.
Виталик поддержал эту идею, согласившись, что позволить искусственному интеллекту действовать без моральных ориентиров – это как дать ребёнку кисть и стену: ничего хорошего из этого не выйдет. Он предупредил, что люди сами не очень преуспевают в вопросе «согласованности», поэтому, возможно, стоит пересмотреть наши планы по передаче управления сверхинтеллектуальному ИИ, прежде чем он решит, что вынос мусора включает в себя избавление от человечества. 🤦♀️
Обещание Илона Маска всеобщего благосостояния посредством искусственного интеллекта
Что касается будущего рынка труда, наш любимый технологический гений, Илон Маск, пообещал, что искусственный интеллект не только займет наши рабочие места, но и сделает это, обеспечивая *каждого* универсальным высоким доходом. Ведь если искусственный интеллект собирается лишить нас всех работы, он мог бы, по крайней мере, обеспечить нас достаточным количеством печенья и личным роботом-дворецким по имени Дживс. 🍪🤖
Будет всеобщий высокий доход (а не просто базовый доход).
У каждого будет лучшая медицинская помощь, еда, жилье, транспорт и все остальное.
Устойчивое изобилие.
— Илон Маск (@elonmusk) 24 августа 2025 года
По словам Илона, мы все будем невероятно богаты, жить в роботизированной утопии с лучшей медицинской помощью и неограниченным количеством гуакамоле. Более того, роботов будет больше, чем людей – так что приготовьтесь либо праздновать, либо чувствовать себя безнадежно в меньшинстве. У них даже могут быть свои помощники, как C3PO и R2D2! 🥳🤖
Смотрите также
- Лучшая супергеройская игра за последнее десятилетие только что появилась в PlayStation Plus
- Команда Справедливости? Как сиквел ‘Миротворца’ хитро переписывает всю историю сериала.
- Дата выхода 2-го сезона ‘Миротворца’, время начала, трейлер, сюжет и многое другое о сериале DCU
- Серебро прогноз
- Выживет ли Dogecoin в хаосе Qubic? 🐶💸
- Что будет с курсом евро к доллару — жми, чтобы не упустить момент!
- Что будет с курсом евро к гривне — жми, чтобы не упустить момент!
- Харизма Карпентер не вернется к роли Корделии в перезапуске «Баффи».
- Самые захватывающие анонсы Gamescom произошли до начала Opening Night Live.
- «Hollow Knight: Silksong» только что доказала, что все её самые большие скептики ошибались.
2025-08-25 16:56