Кто вообще проверяет голосовой интерфейс на доступность?
У нас в дизайне теперь мода: «О, давайте сделаем голосового помощника!»
А потом никто не тестирует, как его слышат слабослышащие.
Никто не думает, как человек с акцентом будет им пользоваться.
Никто не пишет скрипты, которые реально понятно произнести вслух, без комических «сири, позвони бабушке в приложении Яндекс.Такси».
Мы увлеклись возможностями, забыли про ограничения.
Голосовой UI — не просто "сказать вместо нажать". Это другой UX.
Он требует:
— коротких фраз, без двусмысленностей
— учёта фонового шума
— альтернатив для всех, кто не может говорить или слышать
Вопрос не в моде. Вопрос — ты проектируешь для людей или для питча инвестору?