Джозефсоновская микросхема научила квантовую память делать то, что до недавнего времени оставалось уделом классических нейросетей, - предсказывать развитие сложных процессов во времени. Команда исследователей из МФТИ и Сколтеха впервые продемонстрировала, что квантовый рекуррентный алгоритм можно не только описать в теории и протестировать в симуляции, но и полноценно реализовать на реальном сверхпроводниковом процессоре, построенном на искусственных атомах - кубитах-трансмонах. Им удалось обучить квантовую рекуррентную нейросеть прогнозировать числовые временные ряды и получить качество предсказаний, сопоставимое с компактными классическими моделями машинного обучения.
На первый взгляд задача выглядит предельно простой: есть последовательность чисел, меняющихся во времени, и нужно угадать, каким будет следующее значение. Так моделируют давление в атмосфере, нагрузку в энергосетях, колебания температуры, поведение финансовых индексов и огромное количество других сигналов в физике, биологии и экономике. Но за внешней простотой скрыта одна из ключевых проблем современной аналитики данных: важно не просто подогнать модель под прошлое, а научить её улавливать глубинные закономерности и долговременные зависимости, которые не видны при поверхностном анализе.
Классические рекуррентные нейросети - LSTM, GRU и их многочисленные модификации - уже научились эффективно извлекать такие скрытые паттерны. Они способны "помнить" важную информацию на протяжении сотен и тысяч шагов временного ряда. Однако в последние годы встал новый вопрос: может ли квантовый процессор предложить альтернативный, более эффективный способ обработки подобных задач уже сегодня, в эпоху так называемых NISQ-устройств - "шумных" квантовых машин среднего масштаба, которые далеки от идеала, но уже доступны в лабораториях?
Сверхпроводниковый квантовый компьютер хранит информацию в состояниях искусственных атомов - трансмонов. Это особые электрические контуры из сверхпроводящего материала с джозефсоновскими переходами. Их параметры "рисуются" на кремниевой подложке методами литографии с нанометровой точностью. Каждый такой контур может находиться в квантовой суперпозиции нескольких энергетических уровней и выступает в роли кубита. Управляя внешними микроволновыми импульсами, можно менять состояние кубита и запутывать его с другими элементами схемы.
Идеальная квантовая память существовала бы сколь угодно долго, но в реальности состояние кубитов постоянно испытывает разрушительное воздействие окружающей среды. Тепловые флуктуации, паразитные электромагнитные поля, неточность управляющих сигналов, несовершенство считывающей аппаратуры - всё это приводит к релаксации и декогеренции, то есть к постепенной утрате квантовой информации. Поэтому проектируя алгоритмы для таких устройств, приходится искать баланс: с одной стороны, схема должна быть достаточно выразительной, чтобы уловить сложные зависимости в данных; с другой - не настолько длинной и перегруженной операциями, чтобы состояние кубитов успело разрушиться ещё до окончания вычислений.
В роли квантового аналога рекуррентной сети исследователи выбрали архитектуру QRNN - квантовую рекуррентную нейросеть. По логике работы она напоминает классические рекуррентные модели: на вход подаётся фрагмент временного ряда, а на выходе сеть выдаёт прогноз следующего элемента. Но то, как эта модель "запоминает" и обрабатывает информацию, принципиально отличается от привычных матриц весов и нелинейных активаций.
Вместо обычных весов используются параметризованные квантовые схемы - последовательно выполняемые наборы квантовых логических операций над кубитами. Некоторые параметры этих операций, например углы поворота состояний на сфере Блоха или интенсивность запутывающих взаимодействий между кубитами, становятся аналогом "обучаемых параметров" нейросети. Обучение сводится к тому, чтобы подобрать такие значения этих параметров, при которых устройство минимизирует ошибку прогноза временного ряда.
Авторы работы поставили перед собой несколько задач. Во‑первых, проверить, насколько вообще обучаемой окажется QRNN на реальной сверхпроводниковой микросхеме, а не в идеализированном симуляторе. Во‑вторых, понять, какие именно архитектурные решения и настройки - количество слоёв, глубина квантовой схемы, число кубитов, способ кодирования данных - реально улучшают качество предсказаний. И, наконец, определить ту границу сложности, за которой дальнейшее усложнение схемы перестаёт приносить пользу, а шумы и ошибки начинают доминировать над потенциальным выигрышем.
Для этого команда выстроила полный экспериментальный конвейер. Сначала они разработали и протестировали алгоритмы на классическом компьютере, симулируя поведение квантового процессора с учётом известных характеристик устройства. Затем подобрали оптимальные гиперпараметры - глубину схемы, число повторяющихся блоков, параметры обучения. После этого перенесли найденные решения на реальный сверхпроводниковый чип и провели обучение непосредственно на аппаратном уровне, многократно повторяя измерения и постепенно корректируя параметры квантовой схемы.
Работа с временным рядом начиналась с предобработки. Значения ряда масштабировали в диапазон от −1 до 1. Такое нормирование упрощает кодирование чисел в амплитуды квантовых состояний и позволяет эффективнее использовать рабочий диапазон управляющих импульсов. Затем из исходной последовательности формировали обучающие примеры: из неё выделяли фрагменты длиной T точек, а в качестве правильного ответа брали (T+1)-ю точку, которую модель должна была предсказать.
Однако напрямую пропускать длинные фрагменты через квантовый процессор проблематично. Чем больше шагов нужно обработать последовательно, тем длиннее становится квантовая схема - а значит, тем выше риск накопления ошибок и разрушения когерентности. Поэтому исследователям пришлось искать компромисс между длиной "памяти" сети и устойчивостью вычислений. Они экспериментировали с различными способами кодирования части временного ряда в состояние нескольких кубитов и с различными схемами повторяющихся рекуррентных блоков.
Один из ключевых вызовов заключался в самом процессе обучения. Если в классических нейросетях градиенты можно вычислять точно и относительно быстро, то в квантовом случае алгоритм обучения должен учитывать, что каждый шаг - это серия реальных измерений на шумном устройстве. Для оценки значения функции потерь и её производных по параметрам требуется многократно запускать одну и ту же квантовую схему, статистически усредняя результаты. Поэтому важно минимизировать количество параметров и глубину схемы, не жертвуя при этом точностью предсказаний.
Интересно, что несмотря на все эти ограничения, квантовая рекуррентная сеть смогла продемонстрировать качество прогноза, сравнимое с классическими компактными архитектурами на типовой задаче машинного обучения. Это означает, что даже на относительно небольших и шумных NISQ-устройствах уже можно реализовывать нетривиальные алгоритмы обработки временных рядов, а не ограничиваться лишь демонстрационными "игрушечными" примерами.
Важно подчеркнуть: речь не идёт о полном превосходстве квантовых методов над классическими. В настоящее время классические рекуррентные и особенно трансформерные архитектуры остаются гораздо более масштабируемыми и точными для практических задач. Однако продемонстрованный эксперимент показывает принципиальную реализуемость квантовых рекуррентных моделей на реальном "железе" и помогает понять, какие архитектурные решения имеют потенциал для будущих масштабируемых квантовых алгоритмов.
Перспективы таких подходов особенно интересны в областях, где временные ряды тесно связаны с квантовыми или волновыми процессами: в квантовой физике твёрдого тела, спектроскопии, анализе сигналов от квантовых датчиков. Можно представить себе сценарии, в которых квантовый процессор не только моделирует квантовую систему, но и обучается прогнозировать её эволюцию по данным эксперимента, фактически становясь "естественным" предсказателем для других квантовых процессов.
Отдельного внимания заслуживает сама сверхпроводниковая архитектура. Трансмоны, основанные на джозефсоновских переходах, сегодня являются одной из наиболее зрелых платформ для создания квантовых процессоров. Они достаточно хорошо управляемы, их можно интегрировать в микросхемы с десятками и сотнями кубитов, а технологии производства опираются на развитую инфраструктуру микроэлектроники. То, что именно на такой платформе удалось реализовать рекуррентную квантовую сеть, подчёркивает её потенциал не только для решения абстрактных задач оптимизации, но и для обработки реальных данных.
В будущем подобные квантовые рекуррентные архитектуры могут найти применение в задачах прогнозирования, где особенно важны сложные нелинейные зависимости и долгосрочные корреляции: в моделировании климата, управлении сложными техническими системами, анализе финансовых рынков, обнаружении аномалий в промышленных и медицинских данных. Даже если квантовые устройства поначалу будут использоваться в гибридных схемах вместе с классическими нейросетями, они могут взять на себя наиболее трудоёмкие по вычислительной сложности части задачи.
Наконец, такие эксперименты играют важную роль и для развития самой инженерии квантовых процессоров. Чтобы реализовать QRNN на реальном чипе, инженерам и физикам пришлось отладить множество аспектов: повысить точность управляющих импульсов, оптимизировать схемы чтения и калибровки кубитов, разработать устойчивые к шуму протоколы обучения. Все эти наработки затем могут быть использованы и в других квантовых алгоритмах, повышая общее качество и надёжность квантовых вычислений.
Таким образом, работа исследователей из МФТИ и Сколтеха демонстрирует важный переход от теории к практике: квантовая рекуррентная нейросеть из математической конструкции превращается в работающий инструмент на реальном сверхпроводниковом процессоре. Пока такая система не обгоняет классические алгоритмы, но уже способна решать те же задачи на сопоставимом уровне, что в условиях нынешнего технологического состояния квантовой техники само по себе является серьёзным достижением. Это показывает, что квантовая память и квантовые схемы уже сегодня могут не только хранить и обрабатывать информацию, но и учиться предсказывать будущее сложных динамических процессов.



