Android 12 пробует машинное обучение, чтобы сделать навигацию с помощью жестов немного меньше


Android 12 пробует машинное обучение, чтобы сделать навигацию с помощью жестов немного меньше

Использование жестов вместо аппаратных или программных кнопок для навигации в мобильной ОС не совсем идеально, и сейчас это определенно верно для Android. Но что, если телефон попытался узнать, когда это движение от края экрана означало, что вы хотите прокрутить приложение или вернуться на главный экран? Возможно, Google пытается это выяснить.

Куинни899 на форумах XDA-Developers удалось найти новую модель TensorFlow Lite в Android 12, работающую на основе скрипта EdgeBackGestureHandler приложения SystemUI со связанным файлом словаря под названием «backgesture», содержащим имена пакетов 43000 приложений (два из них от Quinny899 ).

Предположительно, эта модель может использовать записанные данные смахивания – в частности, начальные и конечные пиксели – из этих приложений, чтобы определить, требуется ли смахивание для навигации по приложению или к системе.

Текущие настройки чувствительности жестов

Сообщается, что навигация с помощью жестов на основе модели может быть активирована путем активации флага в Android 12 Developer Preview 1. С этого момента потребуется некоторое время, чтобы выяснить, работают ли переменные допуски смахивания лучше для пользователей, чем текущие жесткие предустановки.

Чтобы узнать больше о запуске Android 12, ознакомьтесь с нашим объявлением о том, что здесь нового. Если вы хотите установить предварительную версию для разработчиков на своем устройстве, узнайте, как это сделать, в нашем руководстве по загрузке Android 12.

Leave a Reply

Your email address will not be published. Required fields are marked *