Помните такой сайт stackoverflow.com? Он откатился на уровень 2008 года по посещениям и продолжает умирать – потому что люди теперь ходят в LLM за ответами на технические вопросы

⚰️ Тут чуть детальнее ⚰️
Изображение поста

Курс LLM в НИУ ВШЭ

На этой программе вы систематизируете знания об устройстве больших языковых моделей, сможете развить и применять на практике навыки создания LLM-агентов и построения Retrieval-Augmented Generation (RAG) пайплайнов. После курса вы сможете внедрять LLM в свои проекты и значительно повысите эффективность работы. Формат обучения - онлайн Перейти на сайт #реклама 16+ hse.ru О рекламодателе
Изображение поста

AX: что меняется в дизайне и почему это важно

Дизайн-директор компании Intelsy Костя Зудов поразмышлял о том, как меняется роль дизайна в мире, где на первый план выходят голосовые ассистенты и GPT-системы вроде GPT. Мысли интересные, обсуждения по классике в комментариях. Вместо предисловия За последние десятилетия дизайнеры выстроили удобный цифровой мир: кнопки, формы, экраны, понятные сценарии. UX научил нас делать сложное понятным и помог миллионам пользователей быстрее решать свои задачи. Но сейчас мы наблюдаем заметный сдвиг. Пользователь всё чаще хочет не нажимать — а просто сказать, что нужно. Не искать фильтр — а сказать: «Алиса, включи Лед Зеппелин», «Покажи ближайшие кофейни», «Забронируй столик у окна на 19:00, но без громкой музыки». Это уже не UX в привычном смысле. Это другое взаимодействие — без экранов и интерфейсов. Пользователь формулирует намерение, а система сама выбирает, как к нему прийти. Это называется AX — Agent Experience. Что такое AX AX — это опыт взаимодействия с цифровым агентом: ИИ, голосовым помощником или чат-ботом. У пользователя есть задача, система — понимает и делает. Весь процесс можно описать так: 1. Пользователь формулирует запрос 2. Система распознаёт намерение 3. Агент (например, GPT) подбирает нужные действия 4. Выполняется задача 5. Пользователь получает результат и при необходимости корректирует его В отличие от UX, где всё завязано на сценарии и кнопки, AX — это гибкий, контекстный диалог. Если вы пользовались ChatGPT, говорили «Окей, Google», или создавали презентацию в Canva Magic — вы уже сталкивались с AX. Даже в Figma можно просто описать экран словами — и получить заготовку. Это уже не интерфейс — это взаимодействие. AX не заменяет UX, но сильно меняет фокус. Раньше дизайнер проектировал маршрут пользователя. Теперь — логику того, как система будет понимать задачи. Тут уже нужны другие навыки: — Понимание намерений, а не только визуальных паттернов — Работа с логикой и ситуациями, а не с кнопками — Знание, как устроены LLM (большие языковые модели) — Умение проектировать поведение и реакцию системы, а не только макеты Что дальше AX — не модный термин. Это смена логики. Как когда-то мы перешли от кнопочных телефонов к смартфонам, так сейчас переходим от интерфейсов к интерактивному диалогу. Интерфейсы никуда не исчезнут — но они станут вторым уровнем. На первом будут: контекст, язык, смысл. И тем, кто продолжит проектировать только визуальные слои, будет всё сложнее конкурировать. Потому что новая ценность создаётся уже не там. Что можно делать уже сейчас — Изучите, как работают агенты: GPT, Claude, голосовые ассистенты — Освойте основы prompt engineering — Попробуйте собрать собственного телеграм-бота или протестировать простого агента — И главное — начните задавать себе вопросы: Что должен понимать агент? Как он должен реагировать? Что будет с дизайном, когда кнопок не станет? Вместо итога Пользователь всё чаще не нажимает — а говорит. Система всё чаще не предлагает путь — а сразу решает. Если вы занимаетесь дизайном — подумайте, как к этому адаптироваться.
Изображение поста

Про апдейт Фигмы

Реально полезная и применимая на практике предпоследняя обнова, по-прежнему — это Slides. Там появляются куча шаблонов и теперь нужно быть полнейший дуралеем, чтобы умудриться собрать себе убогое портфоило. Там уже даже сторитейлинг готовый. SITES Я честно, пока ещё, не выкупил Figma Sites, и уже видел как особые таланты пишут что она убьёт Тильду — ответ нет. Это просто неудобно и бессмысленно. Эта обнова убъёт кучу плагинов, за которые нужно было платить. Интернет-магазин вы в ней не сдалете. А если они и добавят эту возможность — то, нахрена? На рынке уже давно есть sqarespace, readymag, webflow и tilda. Самый главный вопрос — бизнесовый, кому это сдалось, кроме дизайнеров с их портфолио? Ну может для фотографов, иллюстраторов. Ну и зачем это всё, если есть слайды, они лучше отрабатывают, если вы делаете портфолио. Короч только простые лендосики с текстом и гипперсылками, переходами на простые односложное катринка-текст сайты с порядочной вёрсткой и анимацей. BUZZ Вот тут нужно экспертное мнение от комдиза, или ребят, которые штампуют (например) карточки для WB. Насколько это удобнее обычных базовых артбордов, правильно настроенных лейатуов рядом. Как по мне — странное( MAKE AI На меня ещё не раскатали, но очень руки чешутся это всё постестить. Но я так понял, что это будет похоже на это ... и чуть не забыл Самое-самое, что ожидается от таких обновлений это что-то приближенное функционалу LLM агент + Xcode + Framer. Вот чего реально не хватает
Изображение поста
Новость для гиков: в главном джентельменском наборе утилит PowerToys вышел новый ланчер. Да-да, теперь там старый Run и новый Command Palette. Зачем? Стало красивее, быстрее и нативнее. В остальном всё тоже самое. Теперь ждём классных плагинов (особенно интеграции с чатиками LLM, потому что ходить по разным сайтам я устал)
Для тех, кто🤓 не гик, ланчер — емто такая умная замена меню пуск на шиндоус или спотлайта на маке. Короче, прога на для тех кто любит клавиатуру, чтобы быстро запускать приложения, открывать сохраненные папки, искать файлы и т.д. (расширяется до бесконечности с помощью плагинов) в общем все, что удобно было под рукой. P.S. ждем еще запуска Raycast на шиндоуз, но что-то мне подсказывается, что опенсорсный Command Palette уже круче его на голову.
Video is not supported
Записать идею
Иногда сталкиваешься с какой-то жизненной ситуацией и думаешь: вот бы сделать приложение для этого. Чтобы идея вылезла из головы, я обычно ставлю таймер на 5 минут и записываю её в базу идей, чтобы, возможно, вернуться к ней в будущем. Если идея часто повторяется, то пора делать. Но теперь записанное описание можно сразу скормить LLM и получить первый прототип приложения без трудозатрат. Например, я всё время страдал с неправильными глаголами. Ну вот лень мне их было учить. И, вроде, знаю все, а иногда вылетит из головы одна из форм и начинается тупняк. Поставил таймер на 5 минут, описал идею приложения для тренировки и с первой попытки получил такое: https://irregular-verbs-trainer.vercel.app/ @detepr — канал про дизайн, технологии и прототипирование
Изображение поста
Изображение канала: dui
Как я сделал мини апп таймер для бега с помощью LLM
Прочёл у Антона Шейна в канале, что с развитием LLM сейчас можно быстрее сделать простое приложение, чем найти и скачать. У меня получилось ровно так же недавно, когда я озадачился найти простенький таймер для интервального бега/ходьбы. Сначала я начал копаться в App Store, но не нашел ничего путного там. Во всех приложениях было либо тонны рекламы либо слишком огромный функционал, который лишь путал и отвлекал от основной задачи таймера. По итогу поисков, я сел за комп и с помощью DeepSeek написал свой таймер в формате мини приложения для Telegram - https://t.me/RunningTimer_Bot У таймера нет крутого дизайна, но зато он чётко выполняет поставленную мной задачу – информировать меня когда нужно бежать, а когда идти. Причём отрезки интервалов можно настраивать. Поэтому если у вас есть базовое понимание разработки, теперь можно действительно быстрее написать чем скачать.
Изображение поста
Изображение канала: ЦЁХ.ДИЗАЙН
А жалкая ли..? 🤔
В сети вирусится вирусился «AI doll trend» — пользователи превращали себя, персонажей и селеб в фигурки в упаковке. Всё с помощью фоторедактора ChatGPT Проверили, как инструмент справится с брендом. Тем более, у нас был старый-добрый-тру-3d креатив с похожей идеей для сравнения Слева — оригинал, справа — потуги от нейронки и нашего смм. У кого получилось лучше? 🔄 Авторегрессионные генераторы изображений (внутри ChatGPT именно такой) работают на той же структуре, как и сами LLM — это даёт высокий контроль над композицией, текстами и мелкими деталями В комментариях — промт, чтобы вы могли повторить этот креатив под себя. Делитесь своими упаковками и пишите, какая версия вам понравилась больше 👇
Изображение поста
Изображение канала: Нейросети и Блендер
Как правильно задавать технические вопросы (и почему это важно для общения с LLM)
Одновременно я столкнулся с двумя вещами в последний месяц: Странные вопросы и замечательные #before">текст с этого сайта про умные вопросы. Прежде чем задавать технический вопрос по почте, в группе, на форуме или мне в канале, стоит предпринять несколько важных шагов: — Попробуйте найти ответ, изучив архивы форума или рассылки. — Используйте поисковые системы (например, Google или Deep Search в разных моделях). — Обратитесь к официальной документации. — Проверьте раздел часто задаваемых вопросов (FAQ). — Попробуйте решить проблему самостоятельно, путём анализа или экспериментов. — Спросите совета у более опытных коллег или друзей. — Изучи исходный код или ноды детально, перед вопросом. Когда будете задавать вопрос, важно показать, что вы уже предприняли усилия для поиска ответа. Это сразу продемонстрирует уважение к чужому времени и покажет, что вы не «ленивая губка», пытающаяся просто вытянуть информацию. Ещё лучше указать, чему вы уже научились в процессе поиска. Используйте конкретные приёмы поиска. Например, вставляйте точный текст ошибки в Google. Даже если это не приведёт вас сразу к решению, упоминание о том, что вы уже сделали поиск, поможет другим понять, какие методы не сработали, и направит людей с аналогичными проблемами к вашему обсуждению. Не торопитесь. Сложные проблемы редко решаются за пару минут поиска. Подумайте внимательно, сформулируйте точный вопрос, подготовьтесь. Опытные пользователи сразу увидят, насколько глубоко вы изучили проблему и будут охотнее помогать. Осторожно подходите к формулировке вопроса. Неправильно заданный вопрос, основанный на неверных предположениях, часто приводит к бесполезным или буквальным ответам, которые никак не помогают решить вашу реальную проблему. Не думайте, что вам обязаны ответить. Помощь в открытых сообществах — это не платная услуга. Ответ нужно заслужить интересным, осмысленным и хорошо проработанным вопросом. Подчеркните готовность активно участвовать в процессе решения проблемы. «Подскажите, в каком направлении копать?» или «Чего не хватает в моём примере?» — такие вопросы намного чаще получают полезные ответы, чем просьбы типа «напишите мне точную последовательность шагов». 📕 Почему это важно для общения с LLM? LLM (большие языковые модели) тоже работают лучше, когда запрос составлен чётко и продуманно. Чем яснее и подробнее сформулирован ваш вопрос, тем точнее будет ответ нейросети. Подход «сначала подумай, потом спроси» отлично подходит и для взаимодействия с искусственным интеллектом. Вы сэкономите время и получите более качественные и полезные ответы. Правильно заданный вопрос — это уже половина решения проблемы. Не пренебрегайте этим шагом, и общение как с людьми, так и с LLM будет приносить гораздо больше пользы.
Изображение поста
Изображение канала: Азиза про legal design
⚡️ Как юристу не утонуть в обилии договоров и не упустить возможные риски?
Продолжаем знакомить вас с полезными инструментами для юристов. На этой неделе Embedika провели вебинар и показали, как их решение Contract by Embedika сокращает проверку договоров в 2 раза — без магии, только технологии. У вас есть возможность потестировать решение на демостенде. ➡️ Что может демоверсия Contract by Embedika? — Проверяет договор на 10 часто встречающихся рисков, — Дает рекомендации по формулировкам для выявленных рисков, — Работает со всеми текстовыми форматами документов, — Составляет привычный нам готовый отчет по результатам анализа. ➡️ Почему вам стоит посмотреть запись вебинара? — Embedika сравнили подходы к анализу документов с использованием открытых сервисов на базе LLM и классического ML, разобрали плюсы и риски. — Рассказали, как ТПХ Русклимат автоматизировал проверку договоров, избежав найма новых сотрудников и дополнительных расходов. — Показали живое демо решения для анализа документов на базе ML. — И самое приятное — запись бесплатная. 🔗 Изучите полный перечень затронутых тем на вебинаре и посмотрите запись ➡️ А если вы уже готовы протестировать сервис, то запускайте демо-версию А вы проверяете договоры вручную или уже доверяете ИИ?
Изображение канала: Adobe After Effects
Привет, друзья!
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️ Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю. Правила просты: с вас🔥, с меня обзоры. Поехали! 1. https://huggingface.co/spaces/philschmid/image-generation-editing">https://huggingface.co/spaces/philschmid/image-generation-editing](https://huggingface.co/spaces/philschmid/image-generation-editing">https://huggingface.co/spaces/philschmid/image-generation-editing">Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame. Раньше это было доступно только под американским ВПН, но теперь доступно всем https://huggingface.co/spaces/philschmid/image-generation-editing">https://huggingface.co/spaces/philschmid/image-generation-editing](https://huggingface.co/spaces/philschmid/image-generation-editing">https://huggingface.co/spaces/philschmid/image-generation-editing">ЗДЕСЬ и бесплатно. Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США. 2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф. 1000 кредитов при регистрации, и еще 400 каждый месяц. 3. #demo">Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Изображение поста
Изображение канала: JCenterS - Компьютерная графика (CG, VFX, 3D)
Прикольная штука, эт визуализация выходных сигналов трансформера (архитектура, на которой работают почти все современные LLM: ChatGPT, Claude, Llama, дипсинки и тд)
Потыкать 😎 JC
Video is not supported
Изображение канала: Weekly Charts
🤖 Как работают LLM
Интересно, как работают большие языковые модели (LLM)? Посмотрите эту потрясающую визуализацию от FT и её команды Visual Storytelling Team -- объясняет работу ИИ всего за 5 минут! #ИИ #LLM #dataviz
Video is not supported
Изображение канала: Weekly Charts
🤖🪄 Управление и изменение ggplot2-графиков с помощью ggfigdone
Пакет ggfigdone для R теперь доступен с улучшениями на базе больших языковых моделей! Изменяйте графики ggplot2 с помощью простых запросов на естественном языке. 🎨 Тестируйте сейчас (пакет пока не в CRAN): https://github.com/wenjie1991/ggfigdone">https://github.com/wenjie1991/ggfigdone #R #DataViz #ggplot2 #LLM #AI
Video is not supported
Изображение канала: en<able> - о дизайне и доступности
Femtech Force Jam 2025
Всем привет! Я сегодня температурю и хочу наконец выползти в блог. Перевожу статью про эволюцию цифровой доступности, если что оригинал здесь. И еще жду начало конференции от девочек из @femtechforce 💜 Femtech Force Jam — это первая русскоязычная фемтех-конференция, организованная Femtech Force. Вместе с экспертами из Flo Health, Oura, Diagnio, Clatch и других компаний команда будет обсуждать настоящее и будущее технологий в сфере женского здоровья. Дата: 12 марта 2025, 15:00–21:00 МСК Участие: бесплатное синхронное, записи будут доступны за донейшн А еще Femtech Force собрали отчет по фемтеху в России: возможности для роста и инвестиции в будущее. Общие выводы отчета недавно были опубликованы в материале Forbes. Некоторые темы докладов: ✦ Особенности женского организма при занятиях спортом, фитнесом и в период реабилитации ✦ FemTech-решения для спорта, фитнеса и восстановления: обзор доступных технологий ✦ Как FemTech улучшает женский спорт и реабилитацию ✦ Кому может помочь репродуктивная медицина ✦ Что современные технологии могут дать женщине ✦ Искусственный интеллект, искусственные гаметы, искусственная матка: что дальше ✦ Foundation models для медицинских изображений ✦ LLM, VLM, LLM-агенты ✦ Как в разных странах помогают (и мешают) развитию ИИ в медицине? ✦ Как Clatch нашел свою аудиторию — девушек из поколения зумеров и альфа. Желаю девочкам успешной конференции, а вам интересного просмотра!
Изображение поста
Изображение канала: Digital-полезности
Nanobrowser
Nanobrowser — это бесплатный и открытый инструмент для автоматизации веб-заданий с поддержкой ИИ, который работает прямо в браузере и предлагает альтернативу OpenAI Operator. Он позволяет автоматизировать повторяющиеся задачи, поддерживает множество LLM и функционирует локально для обеспечения конфиденциальности. В структуру Nanobrowser входят агенты-планировщик, навигатор и валидатор, которые совместно решают сложные веб-задачи. Проект активно развивается, с планами на расширение функциональности и улучшение безопасности. https://github.com/nanobrowser/nanobrowser ================ 👁 News | 👁 Soft | 👁 Gear | 👁 Links
Video is not supported
Изображение канала: Азиза про legal design
Книгой я не ограничилась, я заодно записала урок о том, как использовать нейросети при работе с legal design.
Вот пару практических рекомендаций, как эксплуатировать ИИ для работы с текстом, когда нужно чтобы он был красивенький: ➡️Генерация документов с нуля через нейросети. Современные LLM (Large Language Models), такие как GPT-4 или специализированные Legal AI, умеют создавать документы «с чистого листа». Как применять ➡️Описать для ИИ роль юриста. ➡️Описать ИИ задачу: «Сгенерируй договор аренды квартиры в Москве с учетом последних изменений в ЖК РФ». ➡️Указать особенности: сроки, обязанности сторон, штрафные санкции. ➡️Добавить Legal Design, попросить переписать, упростить, сделать доступным для читателя-физлица. Важно: ➡️Всегда проверяйте результат. ИИ может упустить нюансы, специфичные для вашей юрисдикции. ➡️Используйте анонимайзеры или закрытые корпоративные ИИ-модели, чтобы избежать утечки данных. ➡️Генерация идеи Legal Design. Часто не хватает идеи или макета, на которые можно опереться для того, чтобы приступить к дизайну договора или регламента. Как применять ➡️Просим применить ИИ на себя роль дизайнера / верстальщика и дать идеи для оформления или инструменты для интерактивного взаимодействия читателя документа со ссылками в документе. ➡️Получаем образ документа, который можно взять за основу будущего документа. ➡️Проверка данных, исправление ошибок. Человеческий фактор, опечатки, ошибки — это неизбежные неприятности в работе с документами и большим количеством данных. Поэтому лучше проводить перепроверку даже за собой. Как применять ➡️Использовать любой русскоязычный AI-чат для анализа документа на соответствие корпоративным стандартам: шрифты, отступы, заголовки, расположение реквизитов. ➡️Проверять с применением ИИ грамматику и пунктуацию. Что исправляет ИИ: ➡️Несоответствия в форматировании. ➡️Опечатки в датах, именах, ссылках на законы. ➡️Нарушения логической структуры (например, отсутствие пункта о конфиденциальности в NDA).
Video is not supported
Изображение канала: Digital-полезности
Openator
Openator — это браузерный инструмент для планирования и выполнения задач на естественном языке по средствам ИИ. Инструмент поддерживает импорт модулей и инициализацию с использованием API-ключа от OpenAI. Пользователи могут задавать переменные и секреты для контекста, а Openator совместим с различными моделями LLM, включая gpt-4o. С его помощью можно выполнять разнообразные задачи, от поиска товаров на Amazon до аутентификации на вебсайтах. https://github.com/agentlabs-dev/openator ================ 👁 News | 👁 Soft | 👁 Gear | 👁 Links
Video is not supported
Изображение канала: Digital-полезности
Cherry Studio — это настольный клиент, поддерживающий нескольких поставщиков LLM и доступный для Windows, Mac и Linux.
Поддержка deepseek-r1. 5️⃣ GitHub
Изображение поста
Изображение канала: Kostya Gorsky’s Channel
Андрей Карпаты — известный разработчик, бывший директор по машинному обучения Tesla, а также сооснователь и бывший сотрудник OpenAI — написал тут твит (на скриншоте), из-за которого уже третий день бурлят сообщества.
Очень рекомендую прочитать оригинал. Cуть примерно в следующем: появился новый способ программировать — Андрей назвал этот способ «вайб-кодингом». Это когда ты просто говоришь LLM, что хочешь сделать, и она пишет код. (Голосом, кстати, говоришь, через superwhisper.com или wisprflow.ai.) Модель отдаёт код, ты его даже не читаешь. Если возникают ошибки, копируешь их, и LLM обычно их исправляет. «Это уже не совсем кодинг — я просто что-то вижу, что-то говорю, что-то запускаю и что-то копипащу, и оно в основном работает.» Я может и не обратил бы такого внимания на этот твит, если бы не бурление сообществ. И не тот факт, что наш СТО Слава (будучи очень опытным разработчиком, вообще одним из самых сильных, с кем мне доводилось работать), уже какое-то время рассказывает про похожий стиль программирования, и в целом как будто идёт тем же путём. Ему даже cursor.com уже мало, потому что Курсор не учитывает контекст всей кодовой базы одновременно. Мне кажется, это всё — самый настоящий проблеск будущего работы. Разработчик — это теперь скорее такой тимлид AI-агентов. Код можно самому не писать, надо только хорошо ставить задачи и уметь оценивать результат работы. Для этого всё ещё желательно уметь писать код, но может скоро и это требование отпадёт. У разработчиков будущее наступает уже в 2025, у дизайнеров наступит может в 2026 или 2027. И у всех нас наступит в какой-то момент.
Изображение поста