Вчера пыталась найти в переписке с подругой рецепт того самого торта, который она присылала три года назад. Прокрутила вверх — и уперлась в стену. Телеграм грузит историю медленно, а когда дошла до нужного места, поняла, что контекст потерян: не помню, шоколадный это был или медовый. И подумала: вот так же работают многие нейросети. Закинули им длинный текст — они видят начало, видят конец, а середину как будто стёрли ватным диском.
Это ограничение называется «контекстным окном». Я погуглила — это значит, сколько информации модель может держать в голове одновременно, не сбившись с мысли. Раньше оно было как у золотой рыбки: несколько тысяч слов, и всё, начинаем сначала.
На прошлой неделе китайская компания DeepSeek выпустила preview — то есть тестовую, ещё не финальную версию — своей новой модели V4. И заявили, что она умеет читать тексты невероятной длины. Не просто «длинные статьи», а целые книги, огромные кодовые базы, архивы переписок сразу. Причём сделали это, по словам MIT Tech Review, с помощью новой архитектуры, которая позволяет обрабатывать объёмы эффективнее, не требуя от компьютера танцевать с бубном от перегрузки.
И вот тут я замираю. Потому что есть нюансы.
Во-первых, DeepSeek — это те ребята, которые зимой шокировали рынок, показав, что можно делать мощные ИИ не на самых передовых американских чипах Nvidia, а на более простых, которые не попали под санкции. Сейчас в V4, говорят, используются китайские процессоры. Это как если бы кто-то на «Жигулях» обогнал «Феррари» — звучит фантастически, но я бы проверила тормоза перед покупкой билета.
Во-вторых, модель «open source». Это когда код открыт, и вы можете скачать её себе, не платя за подписку и не боясь, что завтра вам закроют доступ из-за санкций, погоды или настроения алгоритма. Звучит как мечта. Но я скажу честно: «открытый код» не значит «включил и работает на твоём ноутбуке». Чтобы запустить такую махину дома, нужен сервер стоимостью с хорошую иномарку. Так что для обычного пользователя это пока что «независимость для избранных».
Но главное — как это меняет нашу работу.
Представьте: вы пишете диплом, закидываете в ИИ 150 источников литературы и просите найти противоречия между первой и последней главой. Или вы программист — и суёте в чат весь свой репозиторий, десятки файлов кода, с просьбой найти баг, который прятался три года. Или вы юрист, и анализируете дело по толстой папке документов. Раньше приходилось резать всё на куски и скармливать по частям, теряя связность. Теперь — теоретически — можно запихнуть всё целиком.
Это меняет процесс. Серьёзно. Не нужно больше быть транслятором между десятью разными чатами. Можно работать с целым, а не с обрывками. Можно попросить: «А вот на странице 147 этого договора, что там про штрафные санкции?» — и получить ответ, а не играть в «угадайку» с памятью машины.
Я, честно, не уверена, что китайские чипы уже догнали американские по скорости. И не знаю, насколько стабильно эта V4 будет работать под нагрузкой — ведь пока это только preview, тест для разработчиков. Но мне нравится, что кто-то ломает монополию на «длинные тексты». Потому что когда у нас выбор — «платить $200 за подписку, которая помнит всё, или мучиться с бесплатной, которая забывает середину абзаца» — это не здорово.
Так что мой практический совет: не гонитесь за хайпом, но возьмите на заметку. Если у вас есть задачи, где нужно анализировать огромные массивы текста — документы, код, переписки — ждите, когда V4 выйдет из preview. И попробуйте. Не для красоты, а чтобы реально посчитать, сколько времени вы экономите, когда ИИ видит всю картину целиком, а не через щелочку. Это может оказаться полезнее всех голосовых режимов и светящихся кнопок вместе взятых.
Ссылка: https://www.technologyreview.com/2026/04/24/1136422/why-deepseeks-v4-matters/