iPhone 12 Pro Max и LiDAR: лазер, который видит темноту

Автор:

iPhone 12 Pro Max принято обсуждать через призму камеры, дисплея и процессора. Но именно в этой модели Apple впервые поставила в массовый смартфон технологию, которая до этого существовала только в геодезических приборах, военных самолётах и беспилотных автомобилях. Речь о LiDAR-сканере — и большинство обзоров упоминают его одной строкой, не объясняя, что происходит внутри.

Picture background

Физика: как свет измеряет расстояние

LiDAR расшифровывается как Light Detection and Ranging — обнаружение и определение дальности с помощью света. Принцип работы: лазерные импульсы выстреливаются из сканера и замеряется время, за которое они возвращаются обратно — на наносекундных скоростях.

Скорость света — константа: 299 792 458 м/с. Зная её и точно измерив время полёта фотона туда и обратно, можно вычислить расстояние до любой поверхности с точностью до миллиметра. Точность ToF-сканера зависит от того, насколько точно прибор может измерить время — 3.3 пикосекунды соответствуют примерно одному миллиметру пройденного светом пути.

Это не метафора и не приближение — это буквальная физика, реализованная в модуле размером с монету.


VCSEL и SPAD: два компонента, о которых не пишут

Внутри LiDAR-модуля iphone 12 pro max работают два специализированных компонента. Лазер излучается из VCSEL — вертикально-излучающего лазера с резонатором на поверхности кристалла — в ближнем инфракрасном диапазоне в виде двумерной матрицы точек. В отличие от традиционных торцевых лазеров, VCSEL удобен для мобильных устройств: малые габариты, приемлемое соотношение потребляемой и излучаемой мощности, узкая спектральная полоса.

Принимает отражённый сигнал SPAD — одиночный лавинный фотодиод, способный регистрировать отдельные фотоны. Это принципиально: обычный фотодиод регистрирует поток света, SPAD — буквально отдельные кванты. Именно такая чувствительность позволяет системе работать в условиях минимальной освещённости, где обычная камера слепа.

Сенсор излучает матрицу из 576 инфракрасных точек, структурированных как 8×8 точек, дифрагированных в сетке 3×3. Каждая точка — отдельный замер расстояния. Из этих замеров в реальном времени строится трёхмерная карта пространства.


dToF против обычного ToF: в чём разница

На многих Android-смартфонах того времени стояли ToF-сенсоры — и их часто путают с LiDAR. Разница принципиальная.

Direct Time-of-Flight (dToF), применённый в LiDAR iPhone, даёт более детальные замеры расстояния на пиксель по сравнению с indirect ToF. Обычный ToF использует один импульс инфракрасного света для создания карты глубины. LiDAR-сканер iPhone выстреливает серию лазерных импульсов в разные части сцены последовательно — это даёт более богатую и точную картину пространства, особенно когда объекты перекрывают друг друга.

LiDAR-сенсор iPhone способен измерять расстояние до объектов на дальности до 5 метров. Обычные ToF-сенсоры на смартфонах того времени работали максимум на двух метрах.


Автофокус в темноте: почему это меняет фотографию

Главное практическое следствие для камеры — автофокус перестаёт зависеть от света. Традиционный фазовый автофокус работает через анализ контраста — ему нужен свет, чтобы «увидеть» объект. В темноте он ищет долго или не находит вообще.

LiDAR данные объединяются с обработкой через Neural Engine для более умного анализа глубины и контекстного AR. Это означает, что в условиях полной темноты телефон знает расстояние до объекта съёмки через лазер — независимо от того, есть ли свет для оптического автофокуса. Результат: фокусировка в ночных условиях происходит в шесть раз быстрее по сравнению с предыдущими моделями iPhone без LiDAR.


AR-окклюзия: виртуальный объект за реальным предметом

До LiDAR дополненная реальность на смартфонах имела фундаментальный изъян: виртуальные объекты всегда отображались поверх всего. Диван в приложении всегда был перед столом, даже если стол должен его перекрывать.

Благодаря LiDAR виртуальные объекты более реалистично перекрываются реальными — это называется окклюзия. AR-приложения мгновенно строят карту помещения и размещают виртуальные объекты на реальных поверхностях без необходимости предварительного сканирования.

Слияние данных камеры, LiDAR и других сенсоров — акселерометра, гироскопа, магнетометра — формирует улучшенную карту глубины. Система видит не просто расстояния, а геометрию пространства в контексте ориентации устройства.


Почему именно Pro Max, а не все модели

LiDAR появился только в линейке Pro — и это не случайность. Модуль VCSEL+SPAD требует физического пространства на плате, дополнительного энергопотребления и вычислительных ресурсов Neural Engine для обработки данных в реальном времени. Базовые модели iPhone 12 получили A14 Bionic, но без LiDAR-модуля — Apple намеренно разделила линейку по этому признаку, сделав глубинное сканирование дифференцирующим фактором Pro-серии.

До появления LiDAR на iPad Pro 2020 и iPhone 12 Pro эта технология была доступна только в профессиональном оборудовании — геодезических приборах, авиационных системах и беспилотных автомобилях. iPhone 12 Pro Max стал первым массовым потребительским устройством, где лазерный дальномер уровня профессиональной техники оказался в кармане обычного пользователя.

Поділитися цією статтею