Сверхчеловек. Попытка не испугаться - Быков Павел - Страница 54
- Предыдущая
- 54/92
- Следующая
Тут вновь возвращается вопрос смысла: здоровье — это отсутствие болезни или свобода от страха? ИИ может предупредить, но он не может утешить. А значит, роль врача трансформируется: он становится не только интерпретатором анализа, но и этическим переводчиком вероятности в действие.
Сопротивление, между тем, уже есть. Некоторые врачи воспринимают ИИ как угрозу: не только профессионально, но и статусно. Ведь если алгоритм точнее, зачем тогда врач? Но здесь кроется ошибка. ИИ действительно точнее — в одном, двух, десяти направлениях. Но он не умеет интегрировать жизненные обстоятельства, социальный контекст, страх, интуицию, межличностную динамику. ИИ может указать на редкую болезнь, но не может почувствовать, что пациент не скажет всю правду. Человеческое тело неотделимо от языка, а язык — от культуры, эмоций, прошлого. ИИ же работает с данными, не с человеком. Он — помощник. Но без врача он становится машиной статистического насилия.
Есть и второй уровень сопротивления — со стороны пациентов. Он менее очевиден, но глубже. Это интуитивный страх быть сведенным к формуле. Быть оцененным машиной — значит в каком-то смысле перестать быть личностью. Мы, люди, цепляемся за право быть непредсказуемыми, нелогичными, сложными. Это не слабость, а одна из форм достоинства. Поэтому внедрение ИИ требует не только технической, но и культурной работы: создания этики машинного совета, где решение врача и алгоритма не противопоставляются, а обсуждаются.
Ведь самый интересный сценарий — не замена врача, а появление «триады»: врач, пациент и ИИ. Это может быть новая форма медицины, основанная на прозрачности, соучастии и совместной интерпретации.
Врач получает аналитику от алгоритма, пациент получает эмпатию от врача, а система становится прозрачной, потому что врач учит алгоритм объяснять, а пациента — понимать. Это не утопия. Это уже тестируется в университетских клиниках в Германии и Канаде.
И наконец, есть вопрос глобального неравенства. ИИ в здравоохранении сегодня роскошь. Да, его внедряют, но преимущественно в странах с большими инвестициями в цифровую инфраструктуру. Африка, часть Юго-Восточной Азии, беднейшие районы Латинской Америки пока что остаются вне этого процесса. А значит, есть риск: технологии, обещающие справедливость, закрепят неравенство. Если ИИ становится инструментом продления жизни и профилактики болезней — доступ к нему становится правом. И право это должно быть не роскошью, а нормой.
Что мы видим в итоге? Искусственный интеллект в здравоохранении — это не замена, а вызов. Он требует переосмысления роли врача, пациента и самой идеи лечения. Он усиливает возможности, но одновременно обнажает этические и культурные слабости систем. Он может стать мостом — или пропастью. Исход определит то, будет ли его внедрение сопровождаться не только протоколами, но и разговорами. Между людьми. Между системами. Между тем, что можно измерить, и тем, что пока остается человеческим.
И целитель душ?
Впрочем, рассчитывать, что останутся сферы человеческой природы, куда не проникнет влияние ИИ, было бы наивно. Так, уже происходит «экспансия» ИИ в такую тонкую и чувствительную область, как психиатрия.
Психические расстройства — самая «мягкая» из медицинских сфер: здесь нет переломов на рентгене и опухолей на КТ. Диагноз строят на беседе, наблюдении, интуиции врача. Именно поэтому психиатрия десятилетиями оставалась областью высокой неопределенности. Алгоритм, который умеет ловить малейшие паттерны в речи, мимике, биоритмах, обещает перевернуть эту ситуацию. Ниже — как ИИ уже меняет практику и с какими опасностями мы сталкиваемся сейчас, а не «когда-нибудь потом».
Исследовательские группы в IBM Research, Колумбийском университете и MIT тренируют модели, распознающие ранние признаки шизофрении, деменции и биполярного расстройства по 30-секундным аудиофрагментам. Алгоритм оценивает скорость речи, паузы, частоту использования местоимений — то, что человеческое ухо замечает лишь интуитивно.
Стартап Kintsugi анализирует 20 000 параметров голоса во время обычного телефонного разговора и с точностью ~85% предсказывает депрессию. Китайская компания DeepCare использует фронтальную камеру для считывания микродвижений век и губ; паттерн «микрозамедлений» коррелирует с тревожным расстройством.
Каждый шаг со смартфоном в кармане оставляет след: GPS-координаты, частота переписки, скорость набора текста, прослушанные треки. Компании Mindstrong (США) и Ai-Mental (Израиль) превращают эти «цифровые крошки» в пассивные маркеры настроения. Если пользователь внезапно стал печатать медленнее, спит меньше и перестал гулять — алгоритм повышает «индекс тревоги» и предлагает связь c терапевтом.
В 2023 году сеть южнокорейских клиник Yonsei Health подключила ИИ-модуль, анализирующий электронные истории болезней, недавние рецепты, звонки на горячие линии и поисковые запросы пациента (с разрешения). Модель предсказывает вероятность суицида в ближайшие 30 дней с точностью 92%. Система автоматически уведомляет психиатра, который решает: звонить ли пациенту, предлагать ли госпитализацию. Снижение завершенных суицидов — на 34% за первый год работы.
И это далеко не все примеры влияния биоинформатики на психиатрию.
ИИ не собирается «лечить душу» вместо психиатра, но уже умеет слышать колебания голоса, которые никто не улавливает, видеть паузы в переписке, которые врач не заметит, и держать в голове 50 000 статей, которые специалист просто не успеет прочитать. Это делает психиатрию точнее и, парадоксально, гуманнее: чем раньше замечена беда, тем меньше будет принудительных мер, госпитализаций и боли.
Опасность в том, что алгоритм легко превращается из барометра в полицейского, а риск утечки персональных данных грозит навсегда превратить человека в изгоя с точки зрения работодателей и страховых компаний.
Балансировать между пользой и вторжением можно только одним способом: удерживая в центре медицинской сцены человека, а алгоритм признавая тем, кем он должен быть: сверхчувствительным, но подотчетным помощником врача и пациента, а не судьей. Но выстроить этот баланс можно будет только на практике, и, скорее всего, у этого процесса будет «своя цена».
Биоинформатика меняет образ родительства
Еще одна сфера человеческого, которую биоинформатика радикально изменит и уже начинает менять — образование. Школа всегда была пространством надежды: здесь, как верили родители, раскрываются таланты, строится будущее, формируется человек. Но в XXI веке, когда в рюкзаке ученика может лежать не только тетрадь, но и распечатка его генетического профиля, школьное и университетское образование сталкивается с вызовом, к которому оно оказалось плохо готово.
Речь идет не просто о новых знаниях. Речь о переопределении самого смысла образования в биоинформационном мире.
В ряде школ в Южной Корее, Японии и Китае уже идут эксперименты по адаптации программ под когнитивный профиль учащегося, основанный на генетических данных. Например, если у ребенка выявлен пониженный уровень экспрессии BDNF — маркера нейропластичности, ему предлагают усиленную поддержку в обучении чтению и запоминанию. При высоком уровне COMT, который может ассоциироваться с тревожностью, внедряются элементы практики осознанного присутствия и мягкой самооценки.
В американских частных школах, таких как AltSchool и Summit Sierra уже применяются, хотя и без прямого использования генома, системы отслеживания «когнитивных паттернов», которые могут быть связаны с нейропсихологическим профилем. Не ген, но его поведенческий «отпечаток» используется для настройки темпа и методов обучения.
Все это выглядит как победа персонализации. Но ровно здесь и начинается конфликт.
Что произойдет, если учитель получит доступ к генетической информации ученика? Или, вернее, когда это произойдет? Ведь соблазн велик: данные обещают точность, предсказуемость, возможность лучше «поддержать». Но легко перейти грань между поддержкой и навешиванием ярлыка.
- Предыдущая
- 54/92
- Следующая
