Gemini - это первая LLM после GPT, которая мне реально понравилась. 🤖

Есть крутейшие фишки: Gemini 2.5 Pro (платная) и Gemini 2.5 Flash жрут контекст размером аж до 1 миллиона токенов. Это, по бытовым меркам - около часа видео, 11 часов аудио или больше 700 тысяч слов текста. Проверил лично, скушал всю мою методичку на 200к токенов. Вход огромный, а выход в 2 раза больше чем у гпт - 8 тысяч токенов. Это очень хорошо, когда работаешь с большими объемами. Заметил забавную штуку. Реально крутые исследования Gemini выдает только из того, что ты прямо закинул в чат. Если грузишь файл - глубокий ресёрч почему-то работает от балды. GPT пока выигрывает - умеет нормально копаться в загруженных документах, можно создавать инструкции, помнить между сессиями. Но если брать ПОИСК ГУГЛ и чисто творческие задачи, особенно сценарии, посты, Gemini прям разносит порой. Нраица! Gemini умеет делать полноценные подкасты в виде живых интервью, кинул в коммент озвучку по последним матчам бейсбола)) Туда же инфографику въебенили в одну кнопку. В кодинге вообще встроен компилятор прямо в чат. Пишешь код - сразу проверяешь. При всей мощи Gemini, есть нюансики. Точность контекста всё ещё прыгает, то прям оч хорошо идет по запросу, то куда то в чащу. Но то что он ПРОРЕСЕРЧИЛ БОЛЕЕ 300 САЙТОВ, я чуть не охерел. В GPT то максимум 20 штук и иди гуляй) Напрягаем голову, где может понадобиться вам такой сильный парсинг) Они свою базу внедрили, это ж Гугл) Тот самый случай, когда инструмент хорош не для всего, а для конкретных вещей. GPT больше пластилиновый. #СразбегавGPT
Изображение поста

Чё такое "My GPT"?

Он же кастомный GPT, он же «Мой GPT». 🤖 My GPT - это инструмент в GPT, который позволяет создать костомного помощника, которым можно поделится с другими пользователями. Ты его сам настраиваешь, загружаешь в него файлы, задаёшь инструкции, и он всегда помнит, что от него хотят. Для примера, я собрал "My GPT" для создания Синематиков. Основная проблема всех новичков, это желание создать многомиллионный блокбастер, который невозможно сделать без опыта. А таааак хочееется... Так вот, этот бот позволяет ограничить вас в инструментах, но чтобы история вашего синематика была понятна и вы успели в срок без выгорания. Для этого вы пишите какая у вас Видюха, идея, хрон и дедлайн. А так же он шарит за то, что вталдычивает Артурчик) 😂 Он вам и в маркетплейс залезет, ассеты найдет и на основе RTX 2060, напишет сюжет, который реально будет осуществить. Не надо каждый раз разжёвывать ему, в чем задача GPT или что такое UE5. Он уже в курсе, потому что я добавил эту инфу. Внутри My GPT память всё равно работает в рамках контекстного окна - те же 128k токенов максимум. ❌ Проблема в том, что My GPT НЕ имеет память между сессиями. ✅ Но он всегда помнит постоянные инструкции и те файлы, которые ты ему подсунул. 🐌 Если ты накидал в него 20 файлов по 2 млн токенов каждый, он не станет сверхумным, а наоборот, начнёт жестко тормозить. 🧹 Память My GPT всё равно не бесконечная. Всё, что не попало в лимит контекста, он тупо забудет. ⚠️ Инструкцию и файлы лучше не перегружать лишней фигнёй. Чем лаконичнее, тем лучше. Потестить "Синематик Сценарист" можно тут. #СразбегавGPT

Продолжаем. "Глубокое исследование" в GPT. (Deep Research).

💟 Не пугайтесь сладкие, много букв, но упрощаю уже как могу) Если обычный чат GPT - это просто «вкинул запрос → получил ответ» (в рамках тех же 4k токенов, помним, да?), то глубокое исследование - это уже режим детектива. Глубокое исследование, позволяет собрать всю информацию, что у вас есть или найти самостоятельно, чтобы упаковать все знания в один файл. Далее этот файл можно использовать обратно в GPT, чтобы он понимал контекст нужных знаний. К примеру, чтобы писать ахуительные посты, можно создать файл с нужной ЦА и при каждом создании поста, GPT будет знать на кого ориентируемся, если мы скормим ему этот файл. А что если тебе нужно раскопать и проанализировать дохрена имеющихся данных, файлов, таблиц, книг, PDF, экселек и другой инфы? Тут простой GPT не вывезет. Точнее даже вывезет, но вам придется собирать все ручками. Если обычный GPT просто угадывает следующее слово, то в режиме Deep Research: 🔎 Сначала разбивает твой запрос на подзадачи. 🌐 Потом лезет в интернет, проверяет статьи, документацию, форумы, которые подходят под твой запрос. 📂 Анализирует все файлы, которые ты ему подсунул (PDF, Excel, .md-файлы и картинки). 👾 Вспоминает всё, о чём ты писал в этой же сессии. ✍️ В конце сводит это в понятный структурный вывод, который обязательно НУЖНО ПЕРЕЧИТАТЬ. ПЕРВОЕ ПРАВИЛО GPT - НЕ ВЕРЬ GPT. Все перепроверяйте, плиз. Чё по ограничениям? - Первые 1-3 запроса ГИ* дают максимально чёткие ответы. - На 5–7 запросе уже начинаются повторы, текст становится водянистым. - После 10 шага GPT тупо начинает генерировать маленький кусок высера, чтобы заполнить токены. Поэтому тут, лучше подходить с умом. 🪙 А чё по токенам? В Deep Research лимит ответа увеличивается: уже не 4k, а до 8k или даже 16k токенов (в зависимости от кол. оставшихся запросов). НО! Это только длина ответа. Твои входные данные всё ещё ограничены контекстом в 128k токенов. Так что заливать туда полностью "Войну и Мир" - по-прежнему плохая идея. В этом режиме меньше галлюцинаций - GPT старается не придумывать от себя, а чаще цитирует источники. 🔗 ГИ Склеивает файлы + интернет + чат в единый вывод, который уже готовый под вставку в тот же Obsidian. Тебе остаётся тупо скопировать. GPT будет тебе задавать уточняющие вопросы после запроса, когда ты нажмёшь глубокое исследование. И тут главное не забить БОЛТ, как многие делают, а заранее попросить у него как можно больше вопросов, чтобы он лучше понял ваш запрос. *ГИ - Глубокое исследование #СразбегавGPT

Так, ну шо, давайте разбираться по порядочку. Нарыли много инфы, но начнем с базы, чтобы ввести в курс дела.

Причина, по которой LLM (Chat GPT, Grok, Херок) Галлюцинирует - это ограничения в виде токенов. 🪙 Токены - это маленький кусочек текста, который GPT воспринимает как единицу смысла. Это не слово и не буква! Hello = Hel + lo Я люблю GPT = Я + лю + блю + G + PT На английском - экономнее, на русском - тратит больше. Это похоже на морфемный разбор с приставками, суффиксами и т.д. Когда вы пишете много запросов в чат, он может начать тупить и выдавать полную чушь. Это значит, что он упёрся в лимит контекстного окна. Контекстное окно - это максимальное количество токенов, которое GPT может обработать за один запрос (у GPT оно = 128k токенов). Каждый раз, когда вы пишете что-то в чат, это и есть новый запрос с лимитом в 128k токенов. Сессия чата - это вся цепочка ваших запросов и ответов от начала до конца. Получается, память GPT не накапливается бесконечно, а ограничена одним запросом. И если запрос превышает это окно (128k), то бот просто начинает забывать начало и генерировать дичь. Проверить сколько токенов в вашем тексте можно вот тут: platform.openai.com/tokenizer Не важно, насколько большой текст вы закинете на вход GPT, в ответе вы ВСЕГДА получите не больше 4k токенов (при стандартном обращении). Если используете глубокие исследования - окно ответа расширяется до 8k или 16k, в зависимости от инструмента и формата. Токенами считается всё - текст, файлы, ссылки, даже картинки. Поэтому, если вы закинули огромный объем информации в один запрос, то не удивляйтесь, что ваш GPT начнёт тормозить и выдавать ерунду. Поэтому если вы закинули "Войну и Мир", будьте готовы к тому, что вы выкинете PC в окно, от тупости жпт. Все это можно обойти, расскажу дальше. #СразбегавGPT
Изображение поста