Сверхчеловек. Попытка не испугаться - Быков Павел - Страница 59
- Предыдущая
- 59/92
- Следующая
Всё идет к тому, что ИИ не просто окружит человека — он будет рядом всегда. Карьерная траектория, выбор партнера по проекту, стратегия сна и тренировок, финансовые шаги, репродуктивные решения, даже стилистика речи перед сложной встречей — за всем этим будет следить и на всё это будет влиять искусственный интеллект. И вот главный сдвиг: советы ИИ всё чаще будут объективно лучше интуитивных решений человека. Отказ от подсказки станет самонаказанием — упущенная прибыль, лишний риск, худший исход. Мы уже видели это с GPS: «ехать по-своему» означает попасть в пробку, свернуть не туда, опоздать, заблудиться. Теперь так будет почти везде.
Тогда простая этика «ИИ лишь инструмент» не работает. Инструмент, чьи рекомендации постоянно превосходят твои, — это уже опека. А опека без цели ведет к обратному эффекту Флинна: человек перестает тренировать мышцу выбора, внимания и предвидения. Там, где машина стабильно «лучше», человек разучивается быть автором.
Значит, нам нужен четвертый закон — метафорическое продолжение азимовских: искусственный интеллект обязан способствовать развитию человека и человечества.
Не просто «не вредить» и «повиноваться», а постоянно подталкивать к росту — когнитивному, телесному, ценностному.
Что это значит в практике агентного мира? Во-первых, цель по умолчанию у персональных агентов должна быть не «минимизировать дискомфорт» и не «максимизировать удержание», а повышать способность действовать без них. Любая рекомендация — с режимом «эскалатор вниз»: сегодня агент ведет тебя за руку, завтра — дает карту, послезавтра — проверяет план, ещё через неделю — только напоминает о граблях. Подсказка должна укрупнять компетенцию, а не заменять ее.
Во-вторых, долгий контекст превращает ИИ в хранителя памяти твоих решений. Это риск, если память используется для манипуляции комфортом. И это благо, если она используется для тренировки воли. Агент может предлагать не «легкий» выбор, а «лучший для роста»: выключить ленту на 20 минут и дочитать сложный текст, выбрать длинный, но развивающий маршрут обучения, принять неприятную обратную связь. В терминах дизайна — система вознаграждает «микро-мужество»: маленькие шаги, которые завтра делают тебя сильнее.
В-третьих, право на отказ должно быть встроено и безопасно. Ты вправе сказать: «сегодня — без подсказок». Но и здесь четвертый закон задает «мягкую защиту»: агент обязан предупредить о слепых зонах, где отказ несет необратимый вред (медицина, безопасность), и предложить тренажер вместо костыля — симуляцию, где ты принимаешь решение сам, а система лишь моделирует последствия.
В-четвертых, обратимость. Если агент месяц «тащил» тебя по кратчайшему пути, он обязан провести «реабилитацию автономии»: объяснить стратегию, показать альтернативы, вернуть навык. Как после гипса нужна разработка сустава, так после серии автопилотов нужен режим «объясни как» и «сделаю сам». Это ключ к борьбе с поведенческой атрофией.
В-пятых, прозрачные целевые функции. Сегодня большинство цифровых систем оптимизированы под клики и время в экране. В эпоху 900 млрд агентов такая оптимизация станет античеловечной. Цели должны быть объявлены и обсуждаемы: сон, здоровье, экономическая устойчивость семьи, обучение сложному, укрепление социальных связей. Агент обязан объяснить, зачем он предлагает именно это и какие метрики улучшаются. Иначе он превратится в воспитателя удобных, но слабых людей.
Есть и политическая сторона. Агентная опека — это новая биополитика: власть не столько заставляет, сколько «подсказывает лучшее». Невидимая архитектура выбора может воспитывать поколение, которое не ошибается — и не учится. Поэтому четвертый закон — не лозунг, а требование к институтам: регулятор должен проверять, не превращаются ли жизненные агенты в машины усреднения. В образовании мы уже видим, как адаптивные подсказки ускоряют прогресс, но убирают «длинное чтение». В жизни то же самое: ускорение без сопротивления рождает хрупкость.
Вернемся к исходной развилке. Либо ИИ станет великой машиной комфорта, смягчающей все углы и аккуратно обрезающей пики — и тогда деградация будет мягкой и почти незаметной. Либо ИИ станет машиной развития — иногда требовательной, иногда строгой, но всегда работающей на рост твоей автономии. Парадокс: в обоих случаях ты будешь чаще слушать машину. Разница в том, кем ты станешь через десять лет непрерывной опеки.
Четвертый закон задает компас для мира, где советы алгоритма почти всегда выгоднее. Он требует встроить в агента педагогическую совесть: обучай, а не подменяй; тренируй, а не усаживай в кресло; объясняй, а не просто веди. В противном случае агентная цивилизация воспроизведёт ту же ловушку, что и экраны: мгновенная польза, долговременная атрофия.
И ещё одно. В отчете Huawei эта вселенная агентов описана как новая сеть, «агентный интернет». Но человеку и человечеству совершенно необходим и «агентный гуманизм». Например, право на паузы, на неведение, на «длинный путь», на ошибку. И — обязанность ИИ подталкивать к форме жизни, где человек после тысячи подсказок вдруг способен выбрать сам, и выбрать лучше, чем вчера. Тогда плотная, пожизненная коммуникация «человек—ИИ» станет не поводом для тревоги, а редким шансом: впервые техника может не только беречь наше время, но и выращивать нас самих.
Новая фаза биополитики
Человечество еще не стало глупым видом. Но мы стоим на грани — и выбор прост: либо мы позволим генетическому шуму съесть наш потенциал, либо начнем активно управлять собственной эволюцией, то есть перейдем в режим автоэволюции. С целью восстановления исходной когнитивной силы, той, что была у наших предков, когда от их ума зависела жизнь — и весь род.
И главным драйвером этого процесса станут не биохакеры, секты и прочие субкультуры, которые попытаются и, конечно же, непременно используют технологию генного редактирования для различных экзотических экспериментов с внешностью и трансформацией эмоционально-гормональных настроек, но структуры власти. Собственно, это уже видно по тому, как власти Китая и Британии разворачивают общенациональные программы генетической диагностики.
Власть никогда не ограничивалась законами и карами. Настоящая власть не та, что запрещает, а та, что управляет жизнью — создает нормы и нормативы. Нормализует тела, регулирует желания, измеряет температуру, следит за весом, анализирует кровь, отправляет на диспансеризацию, отслеживает отклонения и прописывает диеты.
С началом современности власть стала не столько юридической, сколько биологической. Именно об этом писал Мишель Фуко, когда вводил понятие биополитики — формы власти, которая управляет не субъектами права, а телами, популяциями, видами. И сегодня, в век генетической инженерии, мы наблюдаем новый виток этой логики: теперь власть претендует не просто на контроль над телом, но на контроль над основанием тела — его геномом.
Что могло бы показаться научно-технической революцией, в логике биополитики оказывается не разрывом, а продолжением.
Генетика не угроза власти, но ее укрепление. Если в XIX веке государство стало считать людей, измерять рост призывников и определять «норму» развития ребенка, то XXI век делает следующий шаг: теперь измеряется не поведение и не здоровье, а молекулярная конфигурация, биологическая предрасположенность, риск и мутация.
Медицина, как гениально догадывался Фуко, окончательно сливается с политикой: здоровье больше не частное дело — это объект статистики, управления и, в перспективе, редактирования.
Современная власть — это не власть смерти, а власть жизни. Она не столько убивает, казнит или калечит, сколько позволяет жить при определенных условиях. И чем дальше мы продвигаемся в редактировании жизни, тем больше этих условий появляется. Быть живым — это уже не просто быть, это быть «достаточно пригодным». Генетическая инженерия в этом смысле не освобождает человека, а заключает его в новую схему нормативности — теперь уже молекулярной, бесконечно технической и почти незаметной.
- Предыдущая
- 59/92
- Следующая
