Мои 6 лет опыта пошли нахер. Попал в ловушку всех экспертов.

Короче когда вы в дизайне новичок, прям вообще новичок, 2 урока посмотрели моих на ютубе и впервые для себя анимацию открыли. Так вот вам кажется, что вы ВСЁ ПОНЯЛИ! И вы смело идёте с горящими глазами показывать семейным и кентам какую ПУШКУ вы умеете делать. И в этом состоянии очень просто получить первых клиентов. А потом вы начинаете разбираться глубже. Через неделю вам ваши первые слайды кажутся убожеством. Через две — вы понимаете, что вообще ничего не понимаете. И начинаете усложнять. Вы смотрите на других дизайнеров, которые делают круче, которые много лет в профессии и которые надрачивают на свой супер-сложный дизайн. А смотреть надо на клиентов. Я делился недавно, что у меня ничего давно не залетает в плане контента. Да, приходят по 100-200 подписчиков в месяц, но на наших оборотах это слёзы. И я нанял за сто тыщ эксперта по контенту. Я — человек, у которого 126к на ютубе, 39к в телеге, 100к в инсте, 180к в тиктоке. Я делаю контент уже 6 лет. Я загрузил 560 видео я написал тысячи страниц постов. И вот я нанял молодого пацана, который 4 месяца ведёт инсту и быстро набрал первые 30к подписчиков. И на вторую неделю совместной работы — у меня взрывается инстаграм. +700 человек с одного видео. С экспертного видео, где я показываю, как работать в PowerPoint. Не с шуточек, не с трендов, ни с мемов. 700 сука супер целевых подписчиков. Знаете, какой видос залетел? Настолько простой, что мне было стыдно его выкладывать. Пока пост писал, ещё 80 человек подписалось. Это я к чему. Если у вас нет клиентов \ давно нет рывка по клиентам и деньгам — приходите на МК по клиентам. Он даже не 100 тыщ будет стоить)) Разберем каналы поиска, нишы, правила портфолио, контент, примеры переписок, короче все важное 😌

#5 Интерфейс полез в голову

Есть ощущение, что последние годы интерфейсы всё время пытались стать незаметнее. Сначала кнопки уехали в жесты, потом часть сценариев ушла в голос, потом ИИ начал забирать на себя поиск, тексты, картинки и прочую работу. А теперь следующий уровень: продукты хотят понимать не только что человек делает, но и в каком он состоянии. На днях TechCrunch написал про стартап Neurable. Они делают неинвазивный нейроинтерфейс, то есть без чипов в голове и всей этой киберпанк-жести. Технология работает через ЭЭГ-сенсоры, обработку сигналов и ИИ. По сути, устройство считывает активность мозга и может давать данные о когнитивном состоянии человека. И вот теперь Neurable хочет лицензировать эту технологию производителям обычных потребительских устройств: наушников, очков, кепок, повязок и других носимых штук. У них уже была коллаба с HyperX от HP, где делали гарнитуру для геймеров, чтобы отслеживать фокус и производительность. Ещё они работали с iMotions, которая занимается исследованиями поведения людей. Следующий интерфейс может начаться не с клика, а с усталости в голове Вот это уже очень интересный сдвиг. Потому что раньше продукт реагировал на действие. Нажал кнопку, написал запрос, открыл экран, выбрал пункт меню. Всё понятно. А тут продукт потенциально начинает реагировать на состояние: устал, сфокусирован, перегружен, потерял внимание, выпал из задачи. С одной стороны, звучит очень полезно. Представьте наушники, которые понимают, что вы уже час сидите в глубоком фокусе и дальше начнёте тупить. Или рабочий софт, который видит перегруз и не пихает вам ещё 15 уведомлений. Или игра, которая адаптирует сложность не только по действиям, но и по состоянию игрока. С другой стороны, тут сразу хочется поставить ноут на паузу и немного подумать. Данные о пульсе уже стали нормой. Шаги, сон, калории, стресс - всё это мы как-то приняли. Но данные о мозговой активности ощущаются гораздо интимнее. Это уже не просто тело. Это ближе к тому, как человек думает, устаёт, концентрируется и реагирует на мир. Neurable говорит, что данные защищаются, анонимизируются, шифруются, а для обучения ИИ используются только с согласием пользователя. Это важно. Но сам факт всё равно показательный: рынок уже смотрит на мозг как на следующий слой интерфейса. И тут для дизайнеров и продуктовых команд будет очень непростая зона. Если продукт знает, что человек устал, он должен помогать или монетизировать эту усталость? Если сервис понимает, что внимание просело, он должен дать паузу или подсунуть стимул посильнее? Если игра видит фокус, она должна сделать опыт лучше или удерживать дольше? В обычных интерфейсах мы хотя бы видим кнопку, попап или пуш. С нейроинтерфейсами часть логики может стать совсем невидимой. Устройство что-то считало, ИИ что-то решил, продукт чуть поменял поведение, а пользователь даже не понял почему. Поэтому история с Neurable не только про крутые наушники будущего. Это про новый тип ответственности. Когда интерфейс начинает работать не с экраном, а с состоянием человека, ошибаться становится намного опаснее. ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы

пятничная подборка

1️⃣испания внедряет инструмент выявления ненависти в социальных сетях испания запустила HODIO — систему, которая измеряет «след ненависти и поляризации» в Instagram, TikTok, X, YouTube и Facebook. ai анализирует массивы контента, эксперты валидируют результаты, а раз в полгода публикуется отчёт о состоянии цифровой среды. ✨токсичность становится измеримой метрикой ✨ оценивается не только количество, но и охват хейта ✨ прозрачная методология делает платформы подотчётными 2️⃣cash app заходит в сегмент 6–12 лет Cash App от Block запускает счета для детей. ребёнок получает карту с лимитами, родители полностью контролируют операции через приложение. с 13 лет открывается доступ к расширенным функциям. ✨ обучение финансовым привычкам до подросткового возраста ✨ p2p-переводы от «разрешённого круга» ✨ конкуренция за поколение альфа начинается заранее 3️⃣wildberries встроил автокредит прямо в карточку товара на Wildberries появился автокредит от RWB: одобрение, документы и электронная подпись занимают около часа. первая покупка — BAIC U5 Plus под 0,01 %. ✨ embedded finance для высокочековых покупок ✨ маркетплейс берёт на себя не только продажу, но и финансирование ✨ покупка превращается в бесшовный процесс вывод для бизнеса ⬇️ общая логика этих кейсов — в том, что компании начинают работать не на уровне сервиса, а на уровне среды. они делают измеримым то, что раньше было размытым (токсичность), формируют поведение задолго до момента самостоятельных решений (детские финансы) и убирают паузы между желанием и действием (мгновенный кредит). выигрывают те, кто проектирует не отдельный продукт, а условия, в которых пользователь действует «по умолчанию». trends.aic.ru

Проверка проекта в AI

На гитхабе дизайнер создал файл A11y.md — готовый контекст, который загружаешь в Claude (или любую другую нейронку) — и она начинает проверять твои макеты по стандартам WCAG 2.2. Дима и Миша рассказывали уже о том, что если не спросить нейронку, то она и не расскажет о доступности, так вот md решает данную проблему. Мне нравится, как этот диз написал: Accessibility is not a feature or an incremental improvement; it is a pre-condition for use. Доступность — это необходимое условие. Как пользоваться, если ты диз? 1. Открыть файл на GitHub A11Y.md из папки docs/en/ 2. Вставить в начало чата с AI «Строго следуй правилам разработки, описанным в файле A11Y.md» 3. Скинуть файл или ссылку на свой проект 4. Готово! Что внутри репозитория: ⚡ Command Center — главный файл с матрицей приоритетов, правилами поведения для AI и протоколом для сложных компонентов. 📚 Support Library — справочная библиотека с готовыми решениями по контрасту, формам, кнопкам, навигации и модалкам. 🛠️ Templates — шаблоны для финальной проверки перед релизом и структурированный лог для фиксации технического долга. 📝 Examples — реальные ошибки доступности из проекта на Figma Make, с конкретными исправлениями, которые предложил A11Y.md в роли автоматического ревьюера. Немного того, что важно для дизайнера: → Контраст текста должен быть 4.5:1, элементов UI — 3:1 → Нельзя передавать состояние только цветом — нужны иконка + текст + цвет → Минимальный размер кнопки — 44×44px → Плейсхолдер не заменяет подпись к полю → Графики обязаны различаться без цвета — текстурами или штриховкой и многое другое Этот файл не научит доступности с нуля, он действует скорее как быстрый фильтр и сверка с WCAG. Конечно, я за то, чтобы изучать A11y глубже )
Честно говоря, я наверное скоро начну ИИкать от количества постов про ИИ. Тоже постоянно использую нейронки, хотя особо не пишу об этом.
Недавно завайбкодил небольшой лендос с помощью Cursor, собрал ТГ-бота в n8n, не говоря уже о Nano Banana, приколах в Sora, Suno и каждодневном использовании GPT. Для продукта в GPT генерю гипотезы, анализирую конкурентов, дипсёрчу источники в Perplexity, иногда прошу GPT провести ревью флоу/экрана. Экспериментировал в Figma Make, но результат оставил желать лучшего. Чтобы узнать, как у других, поспрашивал ребят из разных компаний о том, как AI-инструменты поменяли их дизайн-процесс и поменяли ли. 👱‍♂️ Юрий Ветров ⏺️ Дизайн-директор в Точка Банк Сам дизайн-процесс не поменяли, потому что он больше завязан на совмещение целей пользователей и бизнеса, а не конкретные инструменты. Но какие-то части процесса — да. Где-то это бытовуха — вроде перегнать данные из одного формата в другой. Где-то — автоматизация этапа процесса (например, написать свой плагин для Фигмы). Где-то — возможность делать графические элементы на потоке (например, нодовые инструменты генерации). В хобби-проекте вечерами пишу учебную платформу и дизайн-систему на React в формате парного программирования. 🥷 Стефан Васадзе 🏧 Руководитель дизайн-группы в EMCD, ex.Яндекс, ex.VK В дизайне пока только внедряем и учимся, из живого: — Сделали агента, который собирает сам задачу под шаблон опрашивая продакта, далее хотим прикрутить этап первичного discovery; — Сделали плагин где маркетинговые материалы самогенерятся на основе инпута (KV + текста + ресайзы); — Собрали за день свой инструмент для assessment и perfomance review дизайн команды + аналитика и всякие приколдесы; — Делаем пересборку дизайн-системы и компонентов в сторибуке прямой связкой через Figma API, далее хотим автоматизировать пуш изменений и начать работать не с макетами, а с прототипами в коде; — Работаем над проектированием агентов под точечные задачи, в идеале скинуть на них всю операционку где можно без человека; — Собираем лендосы для тестов; — Ищем инфу по корп инструментам/анализируем исследования/копаем в инсайты из чатов/делаем выводы из аналитики и тд. 🙎‍♂️ Марк Борзенков 📦 Дизайн-менеджер в Avito Мы уже больше года генерим картинки, даже сложные 3д персонажи получаются на отлично. Текста и орфография — тоже на отлично. Но это база, как у всех. А что из интересного, смогли на прод завайбодить улучшение. Разобрались с репозиториями, прошли ревью и смержили. Дальше — больше! 🤵‍♂️ Александр Дудинский 💾 Дизайн-лид в EPAM У меня ИИ пока значительно помогает только в быстрых прототипах. Связка Figma Make + Claude Code помогают собирать быстрые прототипы для обсуждения с командой и продактом на стороне клиента. Если раньше мы иногда тратили несколько дней на первый полноценный прототип, то сейчас в течении пары часов собираем весь флоу, включая корнер кейсы. И понятное дело, что все это с анимациями, различными состояниями и т.д., но финальный дизайн всё равно собирает дизайнер. Пока не получилось отдавать готовый код разработчикам и полностью автоматизировать всё это, к сожалению. Про мелочи вроде «быстро сгенерировать сочную иконку» писать не буду, мне кажется это уже база сейчас, а не ускорение работы. 👩‍💼 Дарья Кан 🧿 Дизайн-лид в Оzon У нас в Ozon дизайн-процесс не поменялся. Ключевые этапы, такие как исследование, проработка концепций, дизайн и проверка решений, остаются прежними. Но постепенно ИИ становится вспомогательным инструментом. Мы используем ИИ, чтобы сформулировать UX-копирайтинг особенно на этапе концептов, когда нужно сосредоточиться на идее и смысле, а также при работе с иллюстрациями — быстрая генерация идеи для ускорения синхронизации с командой или заказчиком. Основная ценность по-прежнему остаётся за дизайнером — его опытом, насмотренностью и способностью принимать решения. 🌊🌊
Vector Blender — плагин, который генерирует плавные переходы между двумя фигурами, создавая промежуточные состояния.
🔥 Typeahead в духе Spotlight выглядит как мелочь, но внутри это очень нетривиальный UI-паттерн
Обычный автокомплит показывает список под полем. Typeahead работает иначе: продолжение появляется прямо внутри строки, и за счет этого пользователь не прыгает взглядом между инпутом и выпадающим списком. На словах просто. На деле это почти полностью кастомное поведение, которое не совпадает с нативной логикой HTML-инпутов. Флориан Шульц очень хорошо разбирает, почему такая штука сложнее, чем кажется. Сначала он попробовал идти через реальное выделение текста, но на iOS это сразу развалилось из-за ручек выделения и странного поведения браузера. Потом пришел к overlay-подходу, где completion рисуется поверх инпута отдельным слоем, а дальше началась настоящая инженерия: beforeinput, кастомная обработка backspace, скрытие каретки, переполнение текста и даже проблема кернинга, из-за которой буквы начинали прыгать при вводе. Внутри: – Чем typeahead отличается от обычного автокомплита со списком подсказок; – Почему решение через реальное выделение текста ломается на мобильных; – Как работает overlay-подход с отдельным слоем поверх инпута; – Какие события приходится перехватывать, чтобы поведение было естественным; – Почему стандартный Highlight не дает одинаковый результат в разных браузерах; – Как обрабатывать состояния фокуса, очистки и переполнения текста; – Откуда берется проблема с кернингом при разбиении строки на span; – Как можно компенсировать этот сдвиг, не отключая кернинг полностью. ➡️ Читать статью ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы
Claude Design
Anthropic выкатили Claude Design. Это инструмент, где можно текстом описать идею, а Claude соберёт визуал: прототип, презентацию, лендинг, one-pager или первый макет интерфейса. На первый взгляд звучит как очередное «ИИ теперь заменит дизайнеров», но мне кажется, тут интереснее другое. Они делают его явно не только для дизайнеров. Он целится в продактов, фаундеров, маркетологов и всех людей в команде, у кого есть идея, но нет навыка быстро превратить её во что-то визуальное. То есть первый черновик интерфейса теперь сможет собрать почти любой человек. И это меняет не саму профессию дизайнера, а точку входа в дизайн. Первый красивый вариант почти никогда не равен хорошему продуктовому решению Раньше дизайнер часто был первым человеком, который переводил мутную мысль в экран. Приходил продакт с «давай сделаем вот такую штуку», а дальше дизайнер распутывал сценарий, структуру, состояния, ограничения, тексты, логику и визуал. Теперь часть этой работы можно будет быстро накидать через ИИ. Но проблема в том, что такой макет может выглядеть нормально и при этом вообще не учитывать реальные сценарии, ошибки, ограничения разработки, поведение пользователей и метрики. Поэтому я бы не драматизировал. ИИ отлично ускоряет момент «давайте хоть что-то посмотрим глазами». Это правда полезно, потому что меньше времени будет уходить на пустой лист, первые наброски и попытки объяснить идею словами. Но ценность дизайнера всё больше будет смещаться из «я умею красиво собрать экран» в «я понимаю, какой экран вообще нужен, зачем он нужен, где он сломается и как доказать, что это решение работает». Плохая новость для тех, кто держался только на визуале. Хорошая новость для тех, кто умеет думать продуктом, задавать неудобные вопросы, работать с ограничениями и доводить идею до живого результата. Мне кажется, дальше таких инструментов будет всё больше, и рынок очень быстро начнёт отделять дизайнеров, которые просто делают макеты, от дизайнеров, которые реально влияют на продукт. Что думаете? Уже юзали дизайн клода?)) Как вам? Похороны отменяются, пока что Это мой первый экспериментальный пост, буду иногда писать мысли про какие-то дизайн инструменты или новости) ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы
Какой ты сегодня суп
Обсуждаем с командой тему следующего эфира на выдохе с психологом. Спойлерить сильно не хочется, но речь точно зайдет о диагностике своего состояния. И вот хочется чтобы эта рефлексия далась попроще. А как сделать сложные вопросы легче? Подать с юмором конечно! И мы начали думать какой каждый из нас сегодня суп) Давайте с нами! #пятница 🍑 Явно.Дизайн
🤩 Дизайн-токены это не формальность для дизайн-системы, а способ не утонуть в хаосе потом
Пока в проекте живут цвета вроде #0055FF и отступы, прописанные руками, все кажется нормальным ровно до первого большого изменения. Потом начинается боль: что где используется, что можно трогать, как менять тему, почему один и тот же цвет называется тремя разными способами. В этот момент токены перестают быть «темой для системщиков» и становятся базовой гигиеной продукта. Дима очень хорошо раскладывает это через три слоя: примитивы, семантику и компонентные токены. Самое полезное здесь не теория, а логика: семантика отвечает на вопрос «зачем», компонентный слой на вопрос «где», а правильный нейминг делает систему понятной и для дизайнеров, и для разработчиков. Плюс есть нормальный блок про темную тему, deprecated-токены и версионирование, то есть не только про создание, но и про жизнь системы после запуска. Внутри: – Как устроена трехслойная архитектура токенов и зачем нужен каждый слой; – Чем семантические токены отличаются от компонентных; – Как собирать нейминг от общего к частному, чтобы не путаться потом; – Какие категории и свойства чаще всего используются в системе токенов; – Почему состояние default обычно не нужно писать явно; – Как токены помогают нормально поддерживать светлую и темную темы; – Что делать с устаревшими токенами, чтобы не ломать прод; – Почему без токенов любая масштабируемость быстро превращается в технический долг. ➡️ Читать статью ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы
Оливия Родриго представила первый сингл Drop Dead с предстоящего альбома и выпустила к нему клип. В ролике, снятом Петрой Коллинз, певица гуляет по залам Версаля, а затем берет розовую гитару и превращает прогулку в музыкальный перформанс.
Сам альбом под названием You Seem Pretty Sad for a Girl So in Love выйдет 12 июня. По словам Оливии, в отличие от предыдущих альбомов, вдохновленных расставаниями, на этот раз она пыталась писать из состояния счастья, что стало для нее новым творческим вызовом. Подписывайтесь на вечернюю рассылку | 🔹The Blueprint News
У нас продолжаются блиц-интервью про AI и доступность. Задаем одинаковые вопросы и получаем разные ответы )
Дима Бороухин @dmboro — в прошлом дизайнер и веб-разработчик. После потери зрения объединил свои технические знания с личным опытом и стал консультантом по цифровой доступности. — Ты пробовал использовать Claude или ChatGPT со скринридером или с клавиатуры — как это работает на практике? Я пробовал ChatGPT, однако по удобству взаимодействия мне больше понравился Gemini. Его интерфейс вполне доступен: элементы управления имеют корректные роли, имена и состояния, что позволяет скринридеру считывать структуру страницы. В своей работе я активно применяю AI для подготовки HTML-страниц для презентаций — чтобы показывать командам типичные проблемы доступности. Грамотный промпт позволяет сгенерировать страницу, где один элемент оформлен эталонным кодом, а остальные имеют аналогичный дизайн, но содержат критические ошибки — например, невозможность установить фокус. Визуально всё выглядит одинаково, но при взаимодействии через клавиатуру или скринридер различия становятся очевидными. Также я использую AI для подбора цветовых схем и помощи в написании CSS-кода. — Ты знаешь кейсы, где AI улучшил доступность продукта? или хотя бы часть? Комплексных кейсов, где AI улучшил доступность продукта, в моей практике не встречалось. Вижу нейросети лишь в точечных задачах — как в примере с описанием изображений, о котором расскажу дальше. — Есть ли риск, что AI-инструменты для доступности обучены на данных, которые не отражают реальный опыт людей с ограниченными по здоровью? Риск, безусловно, есть. AI может отлично знать теорию и стандарты, но их всегда нужно проверять на практике. Реальные сценарии взаимодействия со вспомогательными технологиями часто сложнее, чем их описывают в документации. Пример из жизни: недавно я просил AI создать примеры недоступных кнопок. Модель предположила, что «поломанная» кнопка будет полностью неработоспособна для скринридера. Однако на практике скринридер NVDA умеет эмулировать нажатие даже там, где код реагирует только на клик мыши. В итоге для пользователя скринридера кнопка может сработать, а для человека, использующего только клавиатуру, она останется недоступной. Я не разработчик нейросетей, но как консультант по цифровой доступности могу сказать: чтобы ситуация изменилась, в данные для обучения моделей нужно включать больше примеров реального поведения ассистивных технологий. Важно, чтобы AI видел не только идеальный код, но и понимал нюансы взаимодействия разных групп пользователей с интерфейсом. — 70% новых приложений создаётся на low-code и no-code платформах. Люди без технической базы делают продукты для миллионов. AI научит их паттернам доступности? Теоретически — может, но на практике всё зависит от того, как сформулирован запрос. Если создатель продукта не осведомлен о принципах доступности, он просто не включит эти требования в задачу для AI. А без явного запроса модель проигнорирует эти нюансы ради скорости разработки. Важно помнить: доступность — это не только формальное соответствие ГОСТу или WCAG. Прежде всего это про пользовательский опыт. Можно создать приложение, которое формально пройдет все автоматизированные тесты, но при реальном использовании окажется неудобным. — В России активно пользуются технологиями с Ai — зарубежные скринридеры, программы по типу Open your eyes, есть ли надежда, что подобные сервисы будут разрабатываться российскими разработчиками? Это уже реальность. Я постоянно пользуюсь отечественными решениями. Например, «Умная камера» Яндекса — незаменимая вещь в быту: она помогает отличить бутылку молока от кефира в холодильнике, когда упаковки идентичны. Недавно я показывал зарубежным коллегам функцию описания изображений в Яндекс Браузере. В одном онлайн-магазине одежды вместо внятных alt-текстов были маркетинговые названия коллекций. Нейросеть Яндекса точно описала суть: состав комплекта, цвета, фасон. Это тот случай, когда AI исправляет ошибки контента «на лету». Так что — большой респект и спасибо команде инклюзии Яндекса за их работу!
📈Масштабная реставрация памятника XVI века продолжается в Бахчисарае
Продолжаются изменения Ханского дворца — единственного в мире образца крымско-татарской дворцовой архитектуры. Работы, стартовавшие в 2017 году, планируют завершить в 2027 году. Ключевые аспекты реставрации: 📕Сложность работ: дворец пережил пожар XVIII века, а в 1960-е годы аутентичные изображения были закрашены. Сейчас реставраторы раскрывают подлинные красочные слои и арабскую вязь на потолках; 📕Инженерные вызовы: восточная часть Графского корпуса находилась в аварийном состоянии из-за просадки фундамента, северная стена отклонилась по вертикали; 📕Археология: каждый сантиметр территории исследуется под наблюдением археологов, ведутся раскопки. Уже открыт комплекс бань, десятилетиями скрытый под землей. Из 16 объектов комплекса 12 уже восстановлены, включая гаремный корпус и Соколиную башню XVIII века. Реставрация сочетает сохранение исторического облика с оснащением современными инженерными системами. Фото: общественное достояние По материалам: ren.tv/news
📊 Как понять, что редизайн реально сработал, а не просто стал другим
Редизайн часто начинается с ощущения, что сайт устарел или просто всем внутри команды не нравится. Проблема в том, что такие ощущения почти невозможно защитить перед бизнесом. AGIMA на кейсе сайта «Халвы» показывает более трезвый подход: сначала зафиксировать состояние UX, потом менять интерфейс и только после этого смотреть, стало ли пользователю действительно лучше. Для оценки они взяли SUPR-Q и замерили сайт до и после редизайна. До изменений итоговый балл был 3,82, после стал 4,91. Это рост на 28%. Сильнее всего выросли доверие к информации, комфорт при покупках и общее удобство использования. В этом и ценность кейса: он не про «посмотрите, как стало красиво», а про то, как связать редизайн с измеримым пользовательским эффектом. Внутри: – Почему визуальная привлекательность сама по себе ничего не доказывает; – Какие три ловушки чаще всего мешают честно оценивать редизайн; – Чем количественные UX-исследования отличаются от качественных; – Почему для кейса «Халвы» выбрали именно SUPR-Q; – Как правильно настраивать UX-опросы, чтобы не собрать мусорные данные; – Какие ошибки чаще всего ломают результаты опросов; – Какие показатели у «Халвы» выросли после редизайна сильнее всего; – Как понять, что изменения улучшили не только внешний вид, но и доверие, навигацию и комфорт покупки. ➡️ Читать статью ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы
Как можно перевести AI-агента на работу по задачам
Когда начинал делать приложение, общался с AI в чате, держал контекст в md-файлах, а сам список задач лежал где придётся. Чуть позже понял, что это неудобно, тк каждый раз приходилось заново объяснять, что происходит, и весь контекст жил у меня в голове Потом подумал, что можно использовать трекер задач не только как список задач по проекту для себя, а ставить конкретные таски для агента с описанием, ссылками на код и критериями приемки. GitHub Projects, Notion, Linear — не супер-важно. Главное то, что там можно держать еще и состояние проекта, планы и принятые решения Тогда каждая задача становится полноценной карточкой с контекстом. Один раз описываешь, что нужно сделать и почему, а потом просто говоришь агенту: «возьми в работу задачу #42». Не нужно каждый раз восстанавливать картину с нуля Подключается все через коннекторы в Claude Code или Codex, а по созданию задач всё просто: можно сначала описать ее своими словами, потом вместе с AI немного докрутить детали и критерии приёмки
🧪 Дизайн-ревью это момент, когда фича либо становится цельной, либо рассыпается на мелочах
На макете всё почти всегда выглядит хорошо. Проблемы начинаются уже в реализации: экран открылся не той анимацией, скелетон мигнул, чекбокс нажимается только в крошечной зоне, тень обрезалась, текст поехал, в темной теме картинка стала чужой. По отдельности это мелочи. Вместе именно они создают ощущение сырого продукта. В этом гайде ребята из Т-Банка хорошо разложили, как смотреть на дизайн-ревью системно, а не просто сверять экран с макетом. Не только статичное состояние, но и весь опыт целиком: переходы, загрузка, скролл, нажатия, выходы с экрана, типографика, иконки, поведение в светлой и темной теме. Внутри: – Как проверять переход к экрану и не путать типы презентации; – На что смотреть в загрузке: лоадеры, скелетоны и смену состояний; – Почему скролл и нажатия часто ломают впечатление от готовой фичи; – Какие жесты выхода должны работать по умолчанию; – Как сравнивать реализованный экран с макетом через скриншоты в Figma; – Что проверять в отступах, размерах, скруглениях и тенях; – Какие ошибки чаще всего всплывают в цветах и темной теме; – Почему типографика и редполитика тоже часть дизайн-ревью; – Что важно проверить в иконках, графике и видео до релиза. ➡️ Читать статью ——— 💻 Курс по поиску работы 😍 Про дизайн 🔥 Вакансии дизайнерам 🎨 Референсы
Артема Чекалина, бывшего мужа блогера Лерчек, приговорили к 7 годам колонии общего режима и штрафу в 194,5 млн рублей по делу о выводе денежных средств за рубеж. Решение вынес московский суд, пишет ТАСС.
По версии следствия, Артем Чекалин вместе с бывшей супругой организовал схему по выводу более 250 млн рублей в компанию, зарегистрированную в ОАЭ. Деньги, как утверждается, проводились через зарубежные счета с использованием подложных документов, что позволило уклоняться от уплаты налогов в России. На момент следствия супруги успели развестись. Валерия Чекалина проходит по отдельному делу, которое было приостановлено из-за состояния здоровья — ранее в марте у нее диагностировали рак желудка четвертой стадии. Подписывайтесь на вечернюю рассылку | 🔹The Blueprint News
Сара Пиджон рассказала, что начала страдать псориазом из-за съемок в сериале «Американская история любви», где она сыграла Кэролин Бессетт-Кеннеди.
По словам актрисы, большая часть ее съемочного гардероба состояла из плотных вещей (пальто, джинсов и кашемировых водолазок), а работать приходилось летом при температуре около 30 градусов, что сказалось на состоянии кожи. Первые проявления заболевания дали знать о себе еще на съемочной площадке, но актрисе удавалось их скрывать. О роли, которая принесла Пиджон столько трудностей (и, вероятно, принесет номинацию на «Эмми»), а также о стиле в сериале «Американская история любви» — в этом материале. Подписывайтесь на вечернюю рассылку | 🔹The Blueprint News
Кому и за сколько сдали квартиру в ЖК Will Towers?
После окончания работ и финальной фотосессии на объекте есть 2 сценария развития событий: 1. Мы сдаем объект в аренду самостоятельно, под ключ. Правильно оформляем объявление — не как риелторские агентства, которые ставят логотип на фото и заливают десяток фото с территории и всего 5 из квартиры (да и то размытых!). А профессиональных, с акцентами, которые сразу считывает нужная аудитория. Тестируем цену с верхней планки, самостоятельно проводим показы и презентуем преимущества квартиры. Того, кто не просто готов внести деньги, а реально будет жить здесь долго и счастливо: платежеспособный, с прозрачными документами, с понятным образом жизни.  Смотрим на все: от того, как человек общается и выглядит, до того, какие гарантии он может дать и подтвердить. Дополнительно ищем в соц.сетях и приложениях. Это позволяет избежать неприятных ситуаций, когда квартира уходит первому встречному, а через пару месяцев начинаются проблемы с платежами или состоянием жилья. Дальше подписываем договор, и вы получаете не только полностью упакованный ликвидный объект, но и высокую ежемесячную прибыль 2. Мы отдаем ключи, и заказчик сам сдает объект или обращается к риелторам. Чаще всего, в этом случае объект сдается дольше — не всегда есть время выложить объявление быстро и качественно, обработать входящие запросы (а здесь важно четко и грамотно вести переписку). Но результат тоже радует, хоть и не всегда быстро В этот раз заказчики выбрали 1 вариант, и мы не подвели — объект в ЖК Will Towers ушел за 5 дней и 280 000 ₽🔥 Арендатором стала молодая пара, которая купила квартиру в одной из соседних башен. Пока они делают там ремонт — сняли жилье с крохотным мальтипу и были впечатлены дизайном — сказали, что искали такую квартиру очень давно. А если вы хотите доверить свой инвест объект в надежные руки и получать с него стабильный доход, оставить заявку можно на нашем сайте — https://golnk.ru/7g2By
#рефлексия #процесс #диалог
Вчера провёл онлайн-встречу про страхи в дизайне. Я рассказывал сказки. Не как форму развлечения, а как способ говорить о вещах, которые сложно разобрать напрямую. О страхе перемен. О страхе конкуренции. О страхе потерять себя. О страхе быть непонятым. Формат появился на одном из прошлых типодней и в процессе стало ясно: это не сторителлинг, не стендап, не лекция и не образовательный формат в привычном смысле. Это что-то ближе к практике осознавания через истории. Раньше схема была простой: человек → страх → поведение Сейчас она стала сложнее: человек → событие → реакция ума → момент наблюдения → сдвиг → действие И ключевой элемент здесь — не сам страх, а момент, когда ты его замечаешь. Потому что страх сам по себе скорее переключатель состояний: /замереть /бежать /действовать И каждое из них может быть продуктивным, если ты его видишь, а не проживаешь автоматически. Я заметил, что в таком формате люди слушают иначе. Не как «контент», а как отражение своего опыта. И, возможно, в этом есть важное для меня: не объяснять, как правильно, а создавать условия, в которых человек начинает замечать, что с ним происходит. Если внутри у вас сейчас есть какой-то страх — попробуйте не убирать его сразу. Просто посмотрите: это вы действуете или это ум реагирует за вас?