Тема очень нелегкая, но в рубрике «Новые технологии» можно ее обсудить, потому что технология впервые зашла не в «умный дом» или финансы, а прямо в человеческую боль.
История из Китая звучит как сюжет из научной фантастики, но по сути это уже реальность: семье удалось создать полноценную ИИ-копию погибшего сына, сообщает South China Morning Post. Он умер в ДТП, был единственным ребенком, а его 80-летняя мать, страдающая сердечными проблемами, не знает правды. Чтобы не вызвать трагедию сразу, родственники пошли по крайне спорному пути — цифровой имитации жизни.
Для создания «аватара» использовали привычный набор данных: фотографии, видео, голосовые записи, манеру речи, привычки поведения. В результате получился не просто чат-бот, а визуально и поведенчески убедительная копия человека. В видеозвонках ИИ воспроизводит даже мелкие жесты, например характерный наклон вперед во время разговора. Для пожилой женщины это выглядит как обычная дистанционная жизнь сына, который «работает в другом городе».

Семья выстроила целую поддерживающую реальность: сын звонит ежедневно, интересуется здоровьем матери, просит есть нормально, тепло одеваться, обещает вернуться, когда «закончит дела и заработает деньги». То есть с точки зрения восприятия для матери жизнь продолжается в привычной логике, без резкого разрыва.
И вот здесь начинается самая сложная часть истории — не технологическая, а этическая.
С одной стороны, технология действительно решает конкретную задачу: снижает риск мгновенного психологического шока, который в таком возрасте может быть смертельно опасным. В медицине это называют «защитной фильтрацией информации». Людям иногда не сообщают тяжелые диагнозы сразу, если это может привести к резкому ухудшению состояния. В этом смысле ИИ становится инструментом отсрочки травмы.
С другой стороны, это уже не просто «смягчение правды», а создание длительной иллюзии жизни. И чем дольше она длится, тем сложнее будет момент столкновения с реальностью. Возникает классический конфликт: гуманность здесь и сейчас против потенциальной травмы в будущем.
Есть еще более глубокий слой — что вообще считать «присутствием человека»? Если ИИ воспроизводит речь, поведение, реакцию и даже эмоциональные паттерны, для наблюдателя он становится почти неотличим от оригинала. Но это не продолжение личности, а симуляция. И вот здесь проходит граница, которую общество пока не научилось формулировать юридически и морально.

Интересно, что реакция людей на такие истории всегда раскалывается на два лагеря. Одни видят в этом технологическое «чудо утешения» — возможность хоть как-то продлить связь. Другие называют это затянувшейся ложью, которая рано или поздно причинит еще большую боль, потому что реальность все равно догонит.
И есть еще один практический вопрос, который обычно упускают: кто контролирует такую «цифровую личность»? Сегодня это семья, завтра это может быть коммерческая платформа, а послезавтра — сервис, который живет по своим алгоритмам монетизации памяти. И тогда разговор уже будет не про утешение, а про индустрию цифровых двойников умерших.
Фактически мы находимся в точке, где технологии догнали человеческие эмоции, но не догнали этику. Мы можем имитировать присутствие, но пока не понимаем, как долго допустимо его имитировать.
И, возможно, главный вопрос здесь не «можно ли так делать», а «что произойдет с обществом, если это станет нормой».
ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Все материалы, представленные на этом сайте (https://wildinwest.com/), включая вложения, ссылки или материалы, на которые ссылается компания, предназначены исключительно для информационных и развлекательных целей и не должны рассматриваться как финансовая консультация. Материалы третьих лиц остаются собственностью их соответствующих владельцев.


