Google запускает генерацию видео «Veo 2» для YouTube Shorts

Google представила обновленную версию функции Dream Screen на YouTube Shorts, созданную на основе недавно представленного Вео 2 система создания видео.

Как эксперт по поисковой оптимизации (SEO), я бы выразил это следующим образом: повысьте эффективность создания контента с помощью нашего последнего обновления, которое позволяет вам легко создавать фоны на основе искусственного интеллекта и независимые видеофрагменты.

Фон: Dream Screen и Veo 2

Dream Screen предлагает пользователям возможность ввести текстовое предложение и создать фоны, сгенерированные ИИ, подходящие для YouTube Shorts. Последняя функция Veo 2 приносит захватывающее улучшение, позволяя создателям контента ожидать:

1. Расширенные возможности настройки фона
2. Полную интеграцию с популярным программным обеспечением для редактирования видео
3. Более быстрое время обработки для более эффективного рабочего процесса
4. Более широкий выбор фонов, сгенерированных ИИ, на выбор
5. Улучшенную совместимость и пользовательский опыт для более плавного творческого процесса

  • Более быстрое поколение: Видеоролики и изображения создаются быстрее.
  • Высшее качество: Модель поддерживает более широкий спектр объектов и более подробный визуальный вывод.
  • Новые возможности: Пользователи могут создавать отдельные видеоклипы для коротких видео в дополнение к фоновым изображениям.

В США, Канаде, Австралии и Новой Зеландии мы делаем Veo 2 доступным для пользователей прямо сейчас. Мы стремимся расширить доступность на более глобальные регионы в будущем.

Вот пример того, как выглядит клип, созданный с помощью Veo 2:

https://www.youtube.com/watch?v=bxvw_FYrkzA

Как использовать Dream Screen с Veo 2

Создание видеофонов

  1.  Выберите камеру Shorts в приложении YouTube.
  2. Нажмите на опцию «Зеленый экран», затем выберите «Экран мечты».
  3. Введите краткое описание желаемого фона.
  4. Dream Screen предоставит выбор фоновых изображений или видео, созданных с помощью искусственного интеллекта.
  5. Выберите фон, который вам больше всего нравится, и включите его в свой короткометражный фильм.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Создание отдельных клипов

  1. Откройте Shorts Camera & Media Picker: Нажмите на значок в нижнем левом углу, чтобы открыть средство выбора медиафайлов.
  2. Нажмите «Создать»: Введите подсказку, описывающую желаемый контент.
  3. Выберите формат: Выберите один из предложенных вариантов изображения или видео.
  4. Длина редактирования: Перетащите края клипа, чтобы настроить его длительность.
  5. Добавить в краткий список: Нажмите «Готово», чтобы встроить вновь созданный материал в существующий видеоролик Shorts или использовать его в новом видеоролике.

Демонстрацию смотрите на видео ниже.

https://www.youtube.com/watch?v=McgsOxrJiUM

Google упоминает, что будет применять водяные знаки Synthetic ID и особые теги к контенту, созданному искусственным интеллектом, чтобы обозначить его источник.

Взгляд в будущее

Первоначально Google сделает эту функцию доступной для жителей США, Канады, Австралии и Новой Зеландии, а в будущем планирует распространить ее и на другие регионы.

Смотрите также

2025-02-14 01:08

Ключевые элементы технического SEO для крупных компаний

На мой взгляд, совместная работа над улучшением SEO в крупных корпорациях с использованием технических знаний и опыта представляет собой оптимальную и наиболее удовлетворительную возможность для оттачивания этих навыков.

Часто вы сталкиваетесь со сложными системами и структурами, многочисленными проблемами прошлого и различными командами, управляющими отдельными частями веб-сайта.

Или:

Во многих случаях вы имеете дело со сложными сетями, старыми проблемами и отдельными группами, обрабатывающими различные области веб-страницы.

Чтобы осуществить изменения, вам необходимо сотрудничать с несколькими группами, разрабатывать убедительные аргументы, оправдывающие изменения (их причину), и представлять эти доводы различным лицам, принимающим решения.

Как профессионал в области цифрового маркетинга, я осознаю необходимость обладания надежными техническими навыками SEO. Однако не менее важно эффективно и убедительно доносить важность решения определенных проблем в нашей команде или с заинтересованными сторонами. Это включает в себя не только формулирование сути проблемы, но и то, почему она важна и почему мы должны коллективно отдавать приоритет ее решению для достижения оптимальных результатов.

Решение сложных технических вопросов и поддержание связи с различными ключевыми лицами, включая руководителей, маркетологов, разработчиков продуктов и инженеров (помимо ваших непосредственных контактов), порой может показаться невероятно сложной задачей.

Кроме того, он предлагает исключительный пользовательский опыт и способствует приобретению уникальных технических навыков SEO, выходящих за рамки простых контрольных списков и руководств. Такой практический опыт бесценен при решении рутинных технических задач.

Проблема коммуникации в масштабе

Работа с корпоративными брендами часто подразумевает взаимодействие с многочисленными командами для обеспечения эффективного выполнения задач.

Некоторые компании организуют свои команды таким образом, чтобы они функционировали как единое ритмичное подразделение с определенными областями пересечения и бесперебойной коммуникацией.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

В отличие от других подходов, которые разделяют свою работу между изолированными командами, сосредотачиваясь на определенных веб-сайтах или географических областях, этот подход может создавать препятствия при представлении традиционных результатов и может усложнить достижение консенсуса для решения более широких технических проблем, которые влияют на весь сайт.

В нашей компании каждая рабочая группа, как правило, имеет уникальные цели и часто использует различные показатели для измерения успеха, известные как ключевые показатели эффективности (KPI).

Как опытный веб-мастер, я бы сказал так: важно, чтобы вы не только объединили свою основную точку контакта вокруг проблемы, но и объяснили более широкой команде, почему решение этой проблемы соответствует и их собственным интересам. Такой подход обеспечивает объединение усилий и более плавный процесс разрешения.

Добиться этого можно с помощью эффективной многоотделовой отчетности.

Вместо того, чтобы составлять один всеобъемлющий отчет для всех отделов, более эффективно создавать различные краткие и визуально привлекательные отчеты, адаптированные для конкретных групп заинтересованных сторон. Каждый отчет должен выделять ключевые показатели, имеющие отношение к их успеху, гарантируя им необходимую информацию для принятия обоснованных решений.

Вы можете создавать простые отчеты, например, отчеты Looker Studio, или, если у вас есть опыт работы с API, вы можете создавать собственные пользовательские панели отчетов.

Стандартные операционные процедуры (СОП)

Процедуры (СОП) позволяют вам совместно с клиентом создать структуру для установления и поддержания согласованности и масштабируемости, а также предоставляют средства для регистрации существенных изменений, выборов и исполнений.

Создание ресурсного центра для записи существенных обновлений является вполне стандартным, будь то в рамках бизнеса или нет. Однако, если пойти на шаг дальше, то можно создать стандартные операционные процедуры (СОП), которые подвергаются регулярным проверкам и пересмотрам.

Кроме того, этот метод облегчает ориентацию новых членов команды для клиента, гарантируя, что они хорошо информированы и оптимизируя процесс. Более того, он предлагает руководящие принципы для других клиентских команд, тем самым сводя к минимуму вероятность того, что они отклонятся от устоявшейся лучшей практики для бренда или внедрят идеи, которые они могли найти в случайном сообщении в блоге или предложении, данном большой языковой моделью (LLM).

При создании стандартных рабочих процедур (СОП) важно учитывать различные ситуации. Однако, основываясь на своем опыте, я заметил, что часто необходимы три основных СОП, поскольку они охватывают широкий спектр основ и помогают снизить потенциальные риски в технической поисковой оптимизации (SEO):

1. СОП оптимизации контента: эта процедура гарантирует, что ваш контент хорошо структурирован, оптимизирован по ключевым словам и соответствует лучшим практикам для SEO на странице.
2. СОП структуры сайта: правильная организация структуры вашего сайта может помочь поисковым системам эффективно сканировать и индексировать ваши страницы, облегчая пользователям поиск релевантной информации.
3. СОП технического аудита SEO: регулярные аудиты вашего сайта помогают выявить любые технические проблемы, которые могут негативно повлиять на вашу производительность SEO, такие как неработающие ссылки, медленное время загрузки или плохая мобильная оптимизация. Оперативно решая эти проблемы, вы можете поддерживать здоровый и эффективный сайт, который занимает высокие позиции в результатах поисковой системы.

  • Внутренняя перелинковка.
  • Оптимизация изображения.
  • Структуры URL.

Внутренняя перелинковка

Для SEO важно, чтобы мы включали внутренние ссылки в части нашего контента, за исключением целевых страниц. Когда это уместно, каждая часть контента должна содержать ссылки, ведущие обратно к другим соответствующим частям нашего сайта. Простая процедура для этого может быть такой:

— Всегда учитывайте возможности внутренних ссылок при создании или редактировании своего контента.
— Ссылайтесь на связанный контент, который предоставляет дополнительную ценность или контекст для читателя.
— Убедитесь, что связанный текст является описательным и понятным, чтобы читатели знали, что они найдут, когда нажмут на него.

  • Избегайте использования неописательного текста ссылки, например «здесь» или «эта статья», и предоставьте некоторый контекст относительно страницы, на которую ведет ссылка.
  • Избегайте внутренних ссылок без контекста, например, автоматического указания первого или второго упоминания слова или фразы на каждой странице на одну конкретную страницу.
  • Используйте инструмент Ahrefs Internal Link Opportunities или поиск Google (сайт:[yourdomain.com] «ключевое слово») для поиска возможностей для установления связей.

Оптимизация изображения

Распространенной ошибкой является игнорирование оптимизации изображений, поскольку она может значительно повысить скорость загрузки страниц, а если для вас важны рейтинги поиска изображений, она также может повысить вашу видимость в этих результатах. Эффективная стандартная операционная процедура (СОП) для этой задачи может включать следующие шаги:

1. Сжимайте изображения без потери качества, чтобы обеспечить их быструю загрузку.
2. Используйте описательные и релевантные имена файлов, а не общие, такие как IMG001.jpg.
3. Добавляйте alt-текст к каждому изображению, предоставляя краткое описание его содержимого для обеспечения доступности и помогая поисковым системам понимать контекст.
4. Включайте ключевые слова в alt-текст, где это уместно, чтобы улучшить SEO.
5. Используйте правильные размеры изображений, чтобы сохранить соотношение сторон и предотвратить искажение.
6. Оптимизируйте изображения для мобильных устройств, поскольку сегодня на них приходится значительная часть веб-трафика.

  • Используйте описательные имена файлов, а не перегружайте их ключевыми словами.
  • Написание альтернативного текста, который точно описывает изображение для обеспечения доступности, и не включает в него рекламные сообщения.
  • Выбор правильного формата файла и сжатие изображений для повышения скорости загрузки.

Структуры URL-адресов

Как опытный веб-мастер, я всегда отдаю приоритет оптимизации URL-адресов как для поисковых систем, так и для пользователей. Вот как я это делаю:

1. Сделайте URL-адреса понятными: используйте четкие, краткие и описательные слова, которые точно представляют содержимое каждой страницы.

2. Сохраняйте их релевантными: включайте ключевые слова, которые тесно связаны с содержимым, но избегайте переполнения ключевыми словами, так как это может негативно повлиять на SEO.

3. Сохраняйте их короткими: более короткие URL-адреса проще запомнить и ввести пользователям, и они также, как правило, лучше показывают себя в результатах поисковой системы.

4. Используйте дефисы или подчеркивания для разделения слов: это делает URL-адрес более читабельным и помогает поисковым системам понять структуру вашего URL-адреса.

5. Избегайте специальных символов и заглавных букв: поисковые системы могут интерпретировать их как разные слова, что может привести к путанице и снижению производительности SEO.

6. Поддерживайте единообразную структуру: единообразие URL-адресов может облегчить навигацию по вашему сайту как пользователям, так и поисковым системам.

  • Удаление ненужных стоп-слов, знаков препинания и пробелов (20%).
  • Использование дефисов вместо подчеркиваний.
  • Не перегружайте URL-адреса ключевыми словами.

Нюансы технического аудита

Одним из сложных аспектов проведения технического обзора корпоративного веб-сайта с большим количеством страниц является процесс сканирования веб-страниц, часто называемый «сканированием».

Когда дело доходит до сканирования корпоративных веб-сайтов, я часто сталкиваюсь с двумя повторяющимися аспектами. Во-первых, важно регулярно проводить выборочные сканирования. Во-вторых, управление сканированием для многослойной структуры домена может быть сложным.

Образец сканирования

Выборочное сканирование веб-сайтов — это практичный метод выявления существенных проблем SEO на крупных сайтах, позволяющий избежать ресурсоемкого процесса полного сканирования.

Благодаря разумному выбору методов выборки, сосредоточению внимания на важнейших частях и максимально эффективному использованию информации журнала вы сможете получить практические результаты, не снижая при этом эффективности сканирования.

Постарайтесь подобрать большой образец, который точно отражает структуру вашего веб-сайта, но при этом остается компактным для обеспечения эффективности.

Обычно я придерживаюсь этих принципов при определении масштаба веб-сайта, поддомена или папки.

 Размер  Количество URL-адресов Размер выборки
 Маленький  <10,000  Сканировать все или 90%+ URL-адресов.
 Середина  10 000–500 000  От 10% до 25% в зависимости от того, к какой части спектра относится ваше количество URL-адресов.
 Большой  >500,000 Выборка 1–5%, сосредоточенная на ключевых разделах.

Важно также выбирать образцы с умом, особенно когда количество URL-адресов достигает сотен тысяч или даже миллионов. Как правило, существует четыре основных метода выборки:

1. Простая случайная выборка: каждый URL-адрес имеет равные шансы быть выбранным.
2. Стратифицированная выборка: URL-адреса делятся на группы или слои на основе определенных характеристик, а затем из каждой группы берется случайная выборка.
3. Систематическая выборка: каждый n-ный URL-адрес выбирается из всего списка.
4. Кластерная выборка: URL-адреса группируются в кластеры или группы, а затем выбирается случайная выборка из этих кластеров. Затем URL-адреса каждого кластера включаются в окончательную выборку.

  • Случайная выборка: Выбирайте URL-адреса случайным образом, чтобы получить объективную картину состояния сайта.
  • Стратифицированная выборка: Разделите сайт на ключевые разделы (например, страницы продуктов, блог, страницы категорий) и сделайте выборку из каждого раздела, чтобы обеспечить сбалансированную информацию.
  • Приоритетная выборка: Сосредоточьтесь на страницах с высокой ценностью, таких как URL-адреса с самой высокой конверсией, разделы с высоким трафиком и недавно опубликованный контент.
  • Структурная выборка: Просканируйте сайт на основе внутренней иерархии ссылок, начиная с домашней страницы и основных страниц категорий.

Сканирование многоуровневых веб-сайтов

Разработка сканеров, способных перемещаться по сайтам, созданным с использованием различных технологических стеков, требует тактического подхода, учитывающего различные механизмы рендеринга, дизайн URL-адресов и потенциальные препятствия, такие как выполнение скриптов и процедуры аутентификации.

Кроме того, это подразумевает, что вы не можете просто проанализировать весь сайт сразу и предложить общие рекомендации для «всего сайта» в целом.

Вот общее руководство, к которому вам следует обратиться, поскольку оно охватывает многие важные аспекты и интересные моменты, с которыми вы можете столкнуться:

1. Общий контрольный список для справки: этот список содержит обзор основных тем для рассмотрения.

  1. Определите и составьте карту того, какие части сайта обрабатываются сервером, а какие — клиентом.
  2. Определите, какие области требуют аутентификации, например, пользовательские области.
  3. Если для доступа к разделам требуется вход в систему (например, приложение продукта), используйте сеансовые файлы cookie или аутентификацию на основе токенов в Playwright/Puppeteer.
  4. Установите задержки сканирования, если существует ограничение скорости.
  5. Проверьте наличие отложенной загрузки контента (прокрутка или нажатие).
  6. Проверьте, обеспечивают ли общедоступные конечные точки API более простое извлечение данных.

Иллюстрацией этого может служить веб-сайт, которым я управлял несколько лет. Его инфраструктура была сложной, что требовало различных подходов для навигации и эффективного обнаружения проблем в значительных масштабах.

 Компонент стека Подход 
Нукст Если используется SSR или SSG, работает стандартный обход. Если используется гидратация на стороне клиента, включите рендеринг JavaScript.
Призрак Обычно SSR, поэтому обычное сканирование должно работать. Если вы используете его API, рассмотрите возможность извлечения структурированных данных для лучшего понимания.
 Угловой Требуется рендеринг JavaScript. Такие инструменты, как Puppeteer или Playwright, помогают динамически извлекать контент. Тщательно обрабатывайте бесконечную прокрутку или ленивую загрузку.
 Зендеск Zendesk часто имеет ограничения для ботов. Проверьте доступ к API или RSS-каналы для статей справочного центра.

Вместо того чтобы выбирать самые экстремальные пути сканирования веб-страниц, лучше всего, если ваш инструмент сможет отображать веб-страницы, не полагаясь на такие инструменты, как Puppeteer, для извлечения контента.

Заключительная мысль

Для SEO-специалиста решение технических вопросов SEO в крупных корпорациях сопряжено с определенными трудностями; однако это также открывает возможности для очень полезного опыта и получения знаний, которые вы больше нигде не найдете, — опыта, который доступен не каждому SEO-специалисту.

Оптимизация ежедневных задач и обеспечение поддержки со стороны многочисленных заинтересованных сторон клиента могут способствовать более здоровому партнерству между клиентом и агентством, прокладывая путь для успешных инициатив по поисковой оптимизации (SEO).

Смотрите также

2025-02-13 16:11

DeepSeek и его влияние на глобальную гонку генеративного ИИ

С 26 января DeepSeek стало самым скачиваемым бесплатным приложением в американском магазине приложений Apple, собрав 16 миллионов загрузок за первые 18 дней. Для сравнения, ChatGPT собрал 9 миллионов загрузок за тот же период времени. Функциональность и функция поиска DeepSeek, по всей видимости, столь же эффективны, как и ChatGPT от OpenAI, при значительно меньших затратах.

Запуск продукта привел к рекордному падению рыночной капитализации американской технологической компании Nvidia, базирующейся в США, что стало впечатляющим дебютом.

Похоже, многие американские эксперты в области технологий и финансисты обеспокоены тем, что Соединенные Штаты могут отставать в мировой конкуренции по разработке передового искусственного интеллекта с упором на генерацию.

Учитывая оперативность и доступность, с которыми DeepSeek удалось произвести и запустить R1, такой подход представляется оправданным.

Однако действительно ли DeepSeek займет лидирующее положение в технологии ИИ? И если это так, каковы могут быть потенциальные последствия для будущего поиска? Давайте углубимся в этот вопрос.

Что произошло с момента запуска DeepSeek?

Хотя американские технологические компании были ошеломлены быстрыми темпами и предполагаемой экономической эффективностью этого запуска, дебют DeepSeek не обошелся без споров.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Возникает много вопросов, оставшихся без ответа, в таких областях, как потенциальные нарушения прав интеллектуальной собственности, проблемы безопасности и защиты данных, интернет-цензура в Китае и фактические расходы, связанные с их технологиями.

Правовые вопросы авторского права и защиты данных

OpenAI и Microsoft изучают, мог ли DeepSeek использовать интерфейс прикладного программирования (API) OpenAI с целью включения моделей искусственного интеллекта OpenAI в модели DeepSeek.

По данным OpenAI, имеются доказательства того, что DeepSeek использует выходные данные OpenAI для построения конкурирующей модели, что нарушает пользовательское соглашение OpenAI, но это может быть не противозаконным.

Извлекая знания из большой предварительно обученной модели, мы можем создать меньшую модель, которая будет работать так же, как и большая, но с меньшими затратами. Этот процесс по сути включает обучение меньшей модели, заставляя ее имитировать поведение большой модели.

Это довольно иронично, учитывая, что OpenAI столкнулась с юридическими проблемами из-за предполагаемого игнорирования условий обслуживания других сайтов и использования их защищенных авторским правом онлайн-данных для обучения своих систем.

Кроме того, возникают опасения относительно места хранения пользовательских данных и методов их обработки, поскольку DeepSeek, будучи китайской компанией, может вызывать вопросы о конфиденциальности и безопасности данных.

При работе с личной информацией клиентов и финансовыми транзакциями использование такого инструмента, как DeepSeak, который хранит данные в правовой системе другой страны, может привести к нарушению правил конфиденциальности данных и повысить риск несанкционированного раскрытия конфиденциальных данных.

Поскольку DeepSeek не раскрыл свои правила конфиденциальности, настоятельно рекомендуется проявлять максимальную осторожность при работе с конфиденциальными данными в DeepSeek, следуя советам отраслевых профессионалов и специалистов по кибербезопасности.

Нарушение безопасности DeepSeek

Будучи опытным веб-мастером, я недавно обнаружил уязвимости в известной платформе DeepSeek, что стало возможным благодаря впечатляющему опыту Wiz Research в области облачной безопасности, продемонстрированному ими 29 января.

Система получила неограниченный доступ к публичной базе данных, принадлежащей DeepSeek, что дало ей возможность управлять операциями с базой данных и извлекать пользовательские данные, а также ключи API.

Wiz уведомил группу DeepSeek, побудив их к быстрым действиям по защите информации. Тем не менее, остается неясным, кто еще мог получить доступ к данным или получить их до их защиты.

Хотя стартапы обычно действуют быстро и порой ошибаются, эта ошибка выделяется как существенная и свидетельствует о том, что DeepSeak еще не уделила первостепенное внимание кибербезопасности.

Проблемы национальной безопасности, схожие с TikTok

Практика сбора данных DeepSeek вызывает те же опасения в плане национальной безопасности, что и TikTok — платформа, которая привлекла внимание всего мира благодаря китайской компании ByteDance.

В январе 2025 года администрация США временно запретила TikTok из-за опасений относительно способа сбора компанией данных пользователей и потенциальной манипуляции американской аудиторией со стороны китайского правительства через эту платформу.

Хотя в настоящее время TikTok активен в США, его будущее не подтверждено.

Несколько стран, таких как Австралия и Италия, а также другие, предпринимают шаги, аналогичные тем, которые касаются TikTok, пытаясь запретить использование DeepSeek в своих правительственных системах и устройствах, а Соединенные Штаты также рассматривают возможность введения запрета на эту технологию.

Китайская цензура

Независимо от того, используете ли вы DeepSeek в своей собственной системе или через приложение, цензура DeepSeek всегда активна для любых запросов, которые китайское правительство считает конфиденциальными, как сообщается в расследовании журнала Wired.

Чтобы достичь этого, вам нужно будет управлять им самостоятельно на серверах с настроенными вариациями кода DeepSeek с открытым исходным кодом. Это подразумевает наличие необходимого доступа к нескольким передовым графическим процессорам для эффективного запуска самой мощной версии R1.

Questions About Cost

It’s commonly discussed how much it costs to construct DeepSeek. The original estimates provided by DeepSeek suggested a construction cost below $6 million, considering the rental prices of Nvidia graphics processors (GPUs).

Напротив, по данным SemiAnalysis — компании, специализирующейся на исследованиях и консалтинге в области полупроводников, — предполагается, что расходы DeepSeek на аппаратное обеспечение превысили 500 миллионов долларов, что сопровождается дополнительными расходами на исследования и разработки.

В 2024 году OpenAI понесла значительные убытки в размере около 5 миллиардов долларов. Заглядывая вперед к 2025 году, они прогнозируют убытки, превышающие 11 миллиардов долларов. Несмотря на то, что DeepSeek может стоить полмиллиарда долларов или больше, ей все равно удалось значительно сократить расходы по сравнению с расходами ведущих конкурентов.

Итак, как же им удалось сократить расходы?

До появления DeepSeek доминирующие технологии ИИ в основном полагались на нейронные сети — сложные обучающие инструменты, которые приобретают способности, исследуя огромные наборы данных. Эти процессы требуют значительных вычислительных ресурсов.

Графические процессоры, или GPU, особенно полезны для выполнения задач анализа данных. Фактически, это одна из основных причин, по которой такие компании, как Nvidia, достигли известности в этой области. Однако их акции значительно упали в день запуска DeepSeek.

Высокопроизводительные графические процессоры обычно продаются по цене около 40 000 долларов США и потребляют значительное количество энергии, что делает их одним из основных факторов, обуславливающих существенные затраты, связанные с разработкой передовых систем искусственного интеллекта, таких как ChatGPT от OpenAI.

Передача данных между чипами также может потребовать больше энергии, чем работа самих чипов.

DeepSeek удалось сократить расходы, в частности, за счет использования метода, называемого «смешением экспертов».

Вместо того, чтобы тренировать одну нейронную сеть для распознавания тенденций данных из сети, они разбили систему на множество нейронных сетей. Эти специализированные «экспертные» системы были объединены с универсальной системой, тем самым уменьшив объем данных, которые необходимо было передавать между процессорами GPU.

Последствия открытого исходного кода

Как и в случае с Llama от Meta, его код и базовые концепции находятся в открытом доступе, что позволяет разработчикам и компаниям адаптировать его в соответствии со своими конкретными требованиями. Однако точный источник данных для обучения остается нераскрытым.

Многие считают DeepSeek значительным шагом на пути к повышению доступности ИИ, позволяющим малому бизнесу и отдельным разработчикам использовать DeepSeek-R1 и быстрее выполнять сложные задачи ИИ.

В регионах, где технологии для разработки искусственного интеллекта отсутствуют, такая ситуация может способствовать росту креативности и прогрессу в разработке искусственного интеллекта.

DeepSeek и будущее SEO

По сути, каковы выводы для экспертов по поиску относительно DeepSeek? Для меня это выглядит как еще один привлекающий внимание ИИ-чатбот, предлагающий функции поиска, появляющийся в динамичном и развивающемся ландшафте SEO.

Имейте в виду, что такие системы, как DeepSeek и ChatGPT, используют сложные методы обработки естественного языка (NLP) и машинного обучения. Однако их основная функция — отвечать на подлинные запросы реальных людей, а не создавать оригинальные мысли или обладать личным сознанием.

Проще говоря, их ответы в первую очередь сосредоточены на понимании смысла, соответствии намерениям пользователя и анализе контекста, и все это направлено на удовлетворение основных потребностей пользователя.

Несмотря на многолетний опыт тестирования стратегий оптимизации в таких известных поисковых системах, как Google, мы только начинаем постигать нюансы оптимизации для ИИ-чат-ботов, которые генерируют ответы.

Заключительные мысли

Пока неизвестно, сохранится ли популярность DeepSeek и будет ли он расти.

Если другие страны введут запреты, аналогичные тем, которые рассматривают Австралия, Италия и, возможно, США в отношении DeepSeek, это может существенно ограничить возможности его расширения.

Подобно тому, как DeepSeek быстро завоевал популярность, предложив другим дорожную карту и существенно сократив расходы, совсем рядом может появиться еще один потенциально революционный ИИ.

Независимо от результата DeepSeek, мы вступаем в невероятно стремительную фазу развития технологий искусственного интеллекта (ИИ).

В нашей роли экспертов по поисковой оптимизации (SEO) для нас важно быть готовыми исследовать волну новых платформ и понимать методы, которые они используют для генерации ответов на вопросы пользователей.

Смотрите также

2025-02-13 15:10

Хакеры используют Google Tag Manager для кражи номеров кредитных карт

Киберпреступники в настоящее время используют уязвимость сайтов электронной коммерции Magento для вставки замаскированного кода, часто называемого запутанным скриптом. Это незаконное программное обеспечение скрытно внедряется на сайты через Google Tag Manager. После активации во время оформления заказа эта вредоносная программа может украсть данные кредитных карт клиентов. Чтобы сохранить свой доступ и украсть данные пользователей, эти хакеры установили скрытый PHP-бэкдор на пострадавших сайтах.

Мошенники используют уязвимость интернет-магазинов Magento для добавления скрытого кода (скрипта), который может украсть данные кредитных карт, когда клиенты оплачивают свои покупки. Этот код внедряется на сайты с помощью Google Tag Manager, а секретный PHP-бэкдор удерживает его там, чтобы они могли продолжать красть данные пользователей.

Эксперты по безопасности Sucuri обнаружили скиммер кредитных карт, сообщив, что вредоносный код был скрыт в таблице базы данных с именем «cms_block.content». Интересно, что скрипт Google Tag Manager (GTM) на пораженном веб-сайте невооруженным глазом выглядит неизмененным, поскольку вредоносный скрипт разработан так, чтобы ускользать от обнаружения, умело маскируя себя.

Как опытный веб-мастер, я сталкивался с ситуациями, когда вредоносный код после активации тайно собирал данные кредитной карты со страницы оформления заказа в интернет-магазине Magento и скрытно передавал их на удаленный сервер под управлением киберпреступника.

Специалисты по безопасности Sucuri обнаружили скрытый файл доступа, написанный на PHP-коде. Эти PHP-файлы функционируют как основные компоненты многочисленных динамических веб-сайтов, созданных на таких системах, как Magento, WordPress, Drupal и Joomla. Следовательно, если вредоносный PHP-файл внедряется, он может тайно функционировать в системе управления контентом.

Вот PHP-файл, который идентифицировали исследователи:

./media/index.php.

Пока я писал эту статью, выяснилось, что не менее шести веб-сайтов в настоящее время размещают этот конкретный идентификатор Google Tag Manager. Это открытие предполагает, что эта угроза безопасности активно влияет на многочисленные сайты в настоящий момент.

Сайт eurowebmonitortool.com используется во вредоносной кампании и был занесен в черный список как угроза 15 различными поставщиками антивирусных программ на сайте VirusTotal.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

  • «Удалите все подозрительные теги GTM. Войдите в GTM, определите и удалите все подозрительные теги.
  • Выполните полное сканирование веб-сайта для обнаружения любых других вредоносных программ или бэкдоров.
  • Удалите все вредоносные скрипты и бэкдор-файлы.
  • Убедитесь, что Magento и все расширения обновлены и имеют последние исправления безопасности.
  • Регулярно проверяйте посещаемость сайта и GTM на предмет любой необычной активности».

Ознакомьтесь с рекомендациями Sucuri:

Google Tag Manager Skimmer крадет данные кредитной карты с сайта Magento

Смотрите также

2025-02-13 09:38

Почему результаты Google за 4-й квартал вызывают вопросы у SEO и PPC

Как опытный вебмастер с десятилетиями опыта за плечами, я могу с уверенностью сказать, что финансовые результаты Google за четвертый квартал — это хрустальный шар, дающий ценные сведения о будущем поисковой оптимизации (SEO) и интернет-рекламы. Чтобы получить более ясную картину, я обратился к шести ветеранам поискового маркетинга, каждый из которых может похвастаться более чем двумя десятилетиями работы в этой области. Их коллективная мудрость дает нам дорожную карту того, что SEO и цифровые рекламодатели должны приоритетно использовать в 2025 году.

В своих индивидуальных интервью шесть специалистов по цифровому маркетингу коллективно указали на четыре потенциальных фактора, которые могут формировать результаты поиска и рекламы Google:

Во время отдельных интервью с каждым из шести специалистов по цифровому маркетингу все они согласились с четырьмя возможными факторами, которые могут влиять на результаты как поиска, так и рекламы Google.

  1. Изменение поведения пользователя
  2. Изменения в поиске Google
  3. Google не застрахован от конкуренции
  4. Более широкие экономические и рыночные условия

Изменение поведения пользователей и рост конкуренции

Похоже, что в ходе индивидуальных интервью с каждым специалистом по поисковому маркетингу было высказано единое мнение: закономерности поиска пользователей постепенно смещаются от традиционных методов поиска к ИИ и платформам социальных сетей. Этот консенсус предполагает, что Google больше не может быть освобожден от конкуренции как в сфере поиска, так и в сфере рекламы.

Бену Аггарвал из компании Milestone, Inc., базирующейся в Кремниевой долине (профиль на LinkedIn), указал на существенные инвестиции в инфраструктуру ИИ как на явное свидетельство того, что происходят существенные изменения в способах получения людьми информации как в личных, так и в профессиональных целях.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Наблюдается значительный сдвиг в сторону больших языковых моделей (LLM), таких как ChatGPT, Perplexity и Gemini от Google, о чем свидетельствует фокус Alphabet на искусственном интеллекте, в частности, на снижении вычислительных затрат. Такие компании, как Meta, OpenAI, Nvidia, AWS и другие, также присоединяются к этому движению, инвестируя в вычислительную мощность ИИ, чтобы удовлетворить растущий спрос на эти технологии.

Майкл Бонфилс, представляющий Digital International Group на LinkedIn, заявил, что OpenAI станет существенным фактором, который изменит правила игры для поисковой системы Google, учитывая последующую тенденцию перехода молодого поколения от традиционного поиска к визуально-ориентированным платформам социальных сетей.

Я выражаю эту точку зрения с 30 ноября 2022 года: недавнее нововведение OpenAI может существенно изменить намерения пользователей поиска Google, предоставляя более быстрые и отзывчивые результаты без рекламных прерываний и устраняя комментарии на форумах. Это происходит в непростое время, учитывая, что поколение Z/Alpha в основном переключилось на TikTok и Instagram для своих результатов поиска.

Влияние движущихся платформ является значительным. Тенденция к адаптации к гибридным платформам, которые объединяют визуальные и поисковые функции (такие как TikTok и Instagram) и интерфейсы ответных систем (такие как Perplexity), указывает на то, что доминирование Google на рынке поиска может ослабевать, особенно среди молодых поколений (Gen Z) и технически ориентированной аудитории.

«Поисковые запросы падают, так как потребители переходят на социальные платформы. Доходы страдают.

В сфере поисковых систем это, как ожидается, станет нашим обычным способом функционирования, поскольку молодая демографическая группа взрослеет и ее предпочтения расходятся с традиционными методами поиска. Вполне естественно, что мы наблюдаем изменение в их поведении, которое, вероятно, заставит их исследовать новые пути.

Если вы предполагали, что поисковые системы никогда не изменятся, вы ошибались. Полагаться исключительно на один подход вместо диверсификации всегда было путем к потенциальному краху. Это правило не изменилось. Изменения сами по себе постоянны, и по мере того, как меняется поведение людей, должно меняться и ваше.

Изменения в поиске Google

Возможно, что рост числа людей, использующих различные торговые платформы для идей, мотивации и сбора данных, указывает на растущую слабость поискового превосходства Google, делая его более восприимчивым к конкуренции. Эта идея казалась неправдоподобной всего пять лет назад.

В Google Search способ отображения результатов поиска претерпел несколько изменений, а обзоры AI и другие функции значительно снизили необходимость посещения веб-сайта для получения ответа. Эта модель предоставления ответов вместо ссылок, обычно известная как результаты поиска «zero-click», является непрерывным развитием, которое изначально ограничивалось информационными запросами.

Возможно, опасения, высказанные некоторыми SEO-специалистами относительно результатов поиска с нулевым кликом после появления Featured Snippets, были несколько преувеличены. Для поисков, ищущих простые, одномерные ответы (например, написание или имена), генерируемый трафик часто минимален как для веб-сайтов, так и для пользователей. Однако ценность Featured Snippets значительно возрастает, когда у людей есть мотивация узнать больше о продукте, фильме, знаменитости или предмете, что дает им более глубокое понимание.

Как опытный веб-мастер, я своими глазами видел, как Google AI Overviews (AIO) значительно нарушили баланс в экосистеме интернета. Вместо того, чтобы привлекать трафик на веб-сайты, предоставляя интригующие фрагменты, которые поощряют клики, AIO теперь предоставляют исчерпывающие ответы на первоначальные запросы пользователей, устраняя необходимость посещения моего сайта. Более того, эти обзоры предвосхищают потенциальные последующие вопросы благодаря патенту Google на получение информации, эффективно отвечая на несколько вопросов без необходимости дополнительных кликов. Этот сдвиг в поведении пользователей, несомненно, повлиял на шаблоны веб-трафика и на то, как мы подходим к созданию контента в Интернете.

Хотя критика относительно поиска без кликов для избранных фрагментов могла быть преувеличена, управляемые ИИ и расширенные макеты Google значительно снижают необходимость посещения связанных веб-сайтов. Такое изменение не только нарушает баланс веб-среды, но и может потенциально вызвать неожиданные сдвиги в шаблонах поисковой рекламы.

«Замедление роста Google меня не удивляет по нескольким причинам.

Первоначально разговоры о конкуренции были всего лишь слухами, но теперь это стало ощутимой проблемой. Согласно Statcounter Global Statistics, доля Google на мировом рынке поиска упала ниже 90% за последние три месяца 2024 года, что не наблюдалось с 2015 года.

Кроме того, вероятно, эти цифры не включают в себя растущую тенденцию к поиску на основе ИИ, например, Perplexity и GPTSearch. Последний, по оценкам, захватит не менее 1% рынка поиска к концу года. Этот процент может быть еще выше среди молодых пользователей.

В качестве альтернативы страницы результатов поиска Google (SERP) теперь выглядят хаотичными. Переполненный различными не связанными между собой элементами, чистый и удобный дизайн превратился в запутанную мешанину, напоминающую создание монстра Франкенштейна.

Вы когда-нибудь задумывались о том, как изменились результаты поиска с тех загроможденных страниц Yahoo конца 90-х? Тех, которые Google произвел революцию с их простым белым макетом и всего десятью ссылками? Кажется, мы вернулись к неорганизованному, переполненному опыту просмотра, которого мы пытались избежать изначально. Честно говоря, это выглядит так, как будто кто-то небрежно разбросал множество виджетов по всей странице.

Маловероятно, что Google исчезнет в ближайшем будущем, однако его доминирование в поиске постепенно ослабевает, и каждый финансовый квартал демонстрирует небольшие изменения.

Google больше не защищен от конкуренции

Чак Прайс, создатель поискового консалтинга Measurable SEO (на LinkedIn), выделил потенциальные факторы, которые могут подорвать превосходство поиска, влияя также на поисковую рекламу. Он указал на один из таких факторов, способствующих этому, — парадигму нулевого клика.

«Главный вывод, как мне кажется, заключается в том, что дефицит в размере 0,2% в годовом исчислении не отражает всей картины.

Интересно отметить, что, несмотря на значительные изменения на страницах результатов поиска (SERP) в этом году, такие как более обширные поля ответов, сводки, сгенерированные ИИ, и панели знаний на основе сущностей, которые могут указывать на снижение количества кликов по рекламе или посещений веб-сайтов, доход Alphabet от поиска показал устойчивый рост в 12,5% по сравнению с 12,7% в годовом исчислении (YoY). Это можно считать неожиданным, учитывая эволюцию SERP.

Могли ли алгоритмы ценообразования Google быть скорректированы, чтобы достичь такого небольшого разрыва? При изучении тенденций кликов из года в год я подозреваю, что расхождение может быть значительно больше.

Google оказался в сложной ситуации, поскольку достижения поисковых систем на основе ИИ, таких как ChatGPT Search, Perplexity AI и других, революционизируют традиционную модель поисковой системы, которой более 25 лет. Ответом Google стала разработка собственной платформы, помощника поиска AIO, в попытке идти в ногу с этими новыми тенденциями. Майкл Бонфилс отмечает, что эти события оставили Google мало жизнеспособных стратегий:

Они оказываются в сложной ситуации, где ни один выбор не кажется идеальным: им нужно решить, улучшить ли опыт пользователя за счет издателя/рекламодателя, или улучшить положение издателя, потенциально ухудшив опыт пользователя, или найти баланс, который удовлетворит обе стороны.

Более широкое экономическое и рекламное давление

Как опытный специалист по цифровому маркетингу с более чем двадцатилетним опытом, я хотел бы предложить более широкую интерпретацию финансовых результатов Google за четвертый квартал, основанную на идеях Габриэллы Саннино, основательницы Level343, уважаемой международной маркетинговой и SEO-компании. Ее анализ, основанный на ее обширном опыте во всех областях цифрового маркетинга, охватывает настроения поисковых рекламодателей и глобальный экономический климат, предоставляя ценную информацию для нашего сообщества поискового маркетинга.

Учитывая как более широкий контекст, так и результаты, я не убежден, что более медленное развитие вызвано исключительно значительными корректировками страницы результатов поиска (SERP). Вместо этого, похоже, что может играть роль комбинация факторов, влияющих на поведение потребителей.

Первоначально расходы на рекламу и маркетинг обычно сокращаются в первую очередь в трудные времена. Следовательно, более медленный темп роста может быть просто отражением текущих экономических условий, а не каких-либо действий, предпринятых Google.

Кроме того, постоянные корректировки стандартов конфиденциальности могут влиять на рекламу независимо от Google. В частности, изменения настроек конфиденциальности браузера могут привести к менее точному таргетингу рекламы или снижению ее эффективности при измерении. Это, в свою очередь, означает, что рекламодатели получают меньше информации для улучшения конверсий, ремаркетинга и оптимизации рекламы.

В-третьих, крайне важно не оценивать рекламный ландшафт изолированно. Вам нужно учитывать конкуренцию за рекламные расходы со стороны различных платформ, таких как TikTok, Amazon Ads, Microsoft Advertising (с ее Bing, управляемым ИИ, привлекающим внимание) и других. Этот многоканальный подход означает, что часть доходов Google может потенциально перейти на эти другие платформы.

С учетом финансовых ограничений, затрагивающих множество предприятий, окупаемость инвестиций (ROI) в рекламу тщательно изучается. Более того, некоторые владельцы бизнеса разочаровываются, поскольку считают, что частые изменения Google делают рискованным вкладывать в нее весь свой бюджет. Рост систем оптимизации искусственного интеллекта (AIO) служит явным признаком того, что ландшафт снова меняется. Я не удивлюсь, если Google вскоре начнет экспериментировать с рекламным пространством в этой области.

Google не движется по нисходящей спирали

По мнению нашей команды экспертов по поисковому маркетингу, результаты четвертого квартала показывают, что Google, возможно, больше не непобедим на рынке, потенциально столкнувшись со снижением трафика из-за растущей конкуренции со стороны искусственного интеллекта (ИИ) и платформ социальных сетей. Поскольку потребители все чаще начинают свои покупки и поиск информации на этих альтернативных платформах, Google может потерять свое традиционное доминирование в поиске.

Результаты поиска Google могут казаться неорганизованными и нестабильными из-за частых корректировок в дизайне SERP, вызванных расширяющимся разнообразием ключевых фраз. Это может привести к ощущению нестабильности и неопределенности. Однако это не означает, что Google идет на спад. Вместо этого следите за нестабильностью, меняющимся поведением пользователей и ростом других платформ как за потенциальными тенденциями 2025 года.

Широкая перспектива показывает, что постоянные глобальные экономические проблемы и привлекательность рекламы на различных платформах могут стать причиной перераспределения маркетинговых бюджетов. Специалисты по поисковому маркетингу, с которыми я общался, в общей сложности имеющие более 120 лет опыта, выразили опасения по поводу глубинных трудностей в основных секторах Google. Один из этих специалистов по поисковому маркетингу даже предположил, что в платном поиске может быть большая нестабильность, чем, по-видимому, показывают последние квартальные отчеты.

Смотрите также

2025-02-13 05:39