Google заверяет, что URL-адреса #Anchor в GSC — это нормально

По словам Джона Мюллера из Google, нормально, что Google Search Console отображает URL-адреса, содержащие хэштеги, в отчетах о производительности. Это явление не должно вызывать беспокойства относительно того, что на самом деле индексируется Google, поскольку наличие хэштегов не соответствует тому, что индексирует Google.

URL-адреса с хэштегами #Anchor

https:example.com/example-url/#:~:text=

Как специалист по цифровому маркетингу, я заметил, что URL-адреса, содержащие хэштеги, появляются в Google Search Console (GSC). Это может привести к мысли, что Google индексирует неправильные URL-адреса. Однако, по словам Джона Мюллера, на самом деле это не так. Наличие хэштегов в URL-адресах не влияет на то, как Google индексирует страницы. Вместо этого они просто игнорируются Google при индексации.

В некоторых отчетах используются канонические URL-адреса

Проще говоря, его заявление указывает на то, что некоторые отчеты GSC (Google Search Console) отображают первичный или исходный URL (канонический URL). Это подразумевает, что Google будет указывать в своих отчетах один URL, даже если для этого конкретного отчета отслеживается несколько вариаций одного и того же URL, например, отчеты об индексации.

Иногда пользователи могут замечать «хэштеги» или URL с «#анкорами», появляющиеся в Search Console. Это не необычная новость. Некоторые функции поиска фокусируются на основном URL (используемом для индексации, называемом каноническим URL), а другие — нет. Иногда поиск может использовать эти анкоры вместо этого.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Некоторые URL-адреса отмечены как #Anchors (хэштеги)

Позже Мюллер объяснил, что отчет Performance включает URL-адреса, содержащие #anchors, более известные как URL-адреса с хэштегами. Это гиперссылки, найденные в результатах поиска Google, которые направляют пользователей на определенные разделы веб-страницы.

URL-часть может выглядеть так:

/#:~:text=Пример%20из%20текста%20в%20a%20url%20из%20google%20serps.

И в результате получается раздел страницы, который выглядит следующим образом:

… якоря, например, с хэштегами [*], используются для прямого подключения к определенным частям веб-страницы. Например, когда вы нажимаете на ссылку в результатах поиска, она выделяет определенное предложение (называемое «фрагментами текста»). Эта функция также используется при предоставлении данных в Search Console в отчете об эффективности.

… Эти элементы берут начало из этого расположения, но оно не организовано как индекс. Некоторые эксперты по SEO могут найти ценность в различении канонических и неканонических URL-адресов в отчете об эффективности, хотя это не обязательно указывает на проблему.

Отчеты об эффективности с URL-адресами #Anchor

Отображение неканонизированных URL-адресов #anchor в отчете об эффективности полезно, поскольку оно демонстрирует, что эти конкретные результаты поиска с глубокими ссылками генерируют трафик. Альтернативным методом был бы сбор статистики из отчета по ключевым словам, но это не дает четкого указания на то, что трафик исходил из глубокой ссылки на определенный раздел страницы — то, что этот тип отчетов эффективно демонстрирует.

Прочитать пост Мюллера можно здесь.

Смотрите также

2025-02-14 08:08

WordPress Foundation терпит неудачу в заявке на регистрацию товарного знака

WordPress Foundation столкнулся с препятствием в своих попытках зарегистрировать товарные знаки для терминов «Managed WordPress» и «Hosted WordPress». Это потенциальное одобрение дало бы им право взимать роялти всякий раз, когда эти фразы использовались. Однако организация под названием Unprotected.org опубликовала некоторые документы, указывающие на то, что им удалось убедить Патентное ведомство США отклонить эти заявки на товарные знаки.

Мы подали протест в Бюро по патентам и товарным знакам США (USPTO) в отношении двух заявок на регистрацию товарных знаков «Managed WordPress» и «Hosted WordPress».

Затем они процитировали решение Патентного ведомства США:

Кандидату следует исключить использование термина «Управляемый», поскольку он описывает только свойство, особенность, аспект или функцию его продуктов или услуг.

Используемая здесь фраза встречается в описании продуктов и услуг. По сути, эта фраза просто описывает характер предложений заявителя, поскольку они специализируются на предоставлении программного обеспечения, которое управляет контентом на веб-сайтах.

Следующие шаги

Согласно документации, у WordPress Foundation есть три месяца на подачу ответа:

Пожалуйста, отправьте свой ответ на это предварительное решение Управления в течение трех месяцев с даты, указанной ниже как «Дата выдачи», в противном случае ваша заявка может быть признана отклоненной.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

The Register процитировал владельца Unprotected.org:

Этот триумф значительно укрепляет сообщество WordPress, и мы полны решимости добиваться ответственности и нового руководства, пока это не произойдет.

Смотрите также

2025-02-14 02:38

Google запускает генерацию видео «Veo 2» для YouTube Shorts

Google представила обновленную версию функции Dream Screen на YouTube Shorts, созданную на основе недавно представленного Вео 2 система создания видео.

Как эксперт по поисковой оптимизации (SEO), я бы выразил это следующим образом: повысьте эффективность создания контента с помощью нашего последнего обновления, которое позволяет вам легко создавать фоны на основе искусственного интеллекта и независимые видеофрагменты.

Фон: Dream Screen и Veo 2

Dream Screen предлагает пользователям возможность ввести текстовое предложение и создать фоны, сгенерированные ИИ, подходящие для YouTube Shorts. Последняя функция Veo 2 приносит захватывающее улучшение, позволяя создателям контента ожидать:

1. Расширенные возможности настройки фона
2. Полную интеграцию с популярным программным обеспечением для редактирования видео
3. Более быстрое время обработки для более эффективного рабочего процесса
4. Более широкий выбор фонов, сгенерированных ИИ, на выбор
5. Улучшенную совместимость и пользовательский опыт для более плавного творческого процесса

  • Более быстрое поколение: Видеоролики и изображения создаются быстрее.
  • Высшее качество: Модель поддерживает более широкий спектр объектов и более подробный визуальный вывод.
  • Новые возможности: Пользователи могут создавать отдельные видеоклипы для коротких видео в дополнение к фоновым изображениям.

В США, Канаде, Австралии и Новой Зеландии мы делаем Veo 2 доступным для пользователей прямо сейчас. Мы стремимся расширить доступность на более глобальные регионы в будущем.

Вот пример того, как выглядит клип, созданный с помощью Veo 2:

https://www.youtube.com/watch?v=bxvw_FYrkzA

Как использовать Dream Screen с Veo 2

Создание видеофонов

  1.  Выберите камеру Shorts в приложении YouTube.
  2. Нажмите на опцию «Зеленый экран», затем выберите «Экран мечты».
  3. Введите краткое описание желаемого фона.
  4. Dream Screen предоставит выбор фоновых изображений или видео, созданных с помощью искусственного интеллекта.
  5. Выберите фон, который вам больше всего нравится, и включите его в свой короткометражный фильм.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Создание отдельных клипов

  1. Откройте Shorts Camera & Media Picker: Нажмите на значок в нижнем левом углу, чтобы открыть средство выбора медиафайлов.
  2. Нажмите «Создать»: Введите подсказку, описывающую желаемый контент.
  3. Выберите формат: Выберите один из предложенных вариантов изображения или видео.
  4. Длина редактирования: Перетащите края клипа, чтобы настроить его длительность.
  5. Добавить в краткий список: Нажмите «Готово», чтобы встроить вновь созданный материал в существующий видеоролик Shorts или использовать его в новом видеоролике.

Демонстрацию смотрите на видео ниже.

https://www.youtube.com/watch?v=McgsOxrJiUM

Google упоминает, что будет применять водяные знаки Synthetic ID и особые теги к контенту, созданному искусственным интеллектом, чтобы обозначить его источник.

Взгляд в будущее

Первоначально Google сделает эту функцию доступной для жителей США, Канады, Австралии и Новой Зеландии, а в будущем планирует распространить ее и на другие регионы.

Смотрите также

2025-02-14 01:08

Ключевые элементы технического SEO для крупных компаний

На мой взгляд, совместная работа над улучшением SEO в крупных корпорациях с использованием технических знаний и опыта представляет собой оптимальную и наиболее удовлетворительную возможность для оттачивания этих навыков.

Часто вы сталкиваетесь со сложными системами и структурами, многочисленными проблемами прошлого и различными командами, управляющими отдельными частями веб-сайта.

Или:

Во многих случаях вы имеете дело со сложными сетями, старыми проблемами и отдельными группами, обрабатывающими различные области веб-страницы.

Чтобы осуществить изменения, вам необходимо сотрудничать с несколькими группами, разрабатывать убедительные аргументы, оправдывающие изменения (их причину), и представлять эти доводы различным лицам, принимающим решения.

Как профессионал в области цифрового маркетинга, я осознаю необходимость обладания надежными техническими навыками SEO. Однако не менее важно эффективно и убедительно доносить важность решения определенных проблем в нашей команде или с заинтересованными сторонами. Это включает в себя не только формулирование сути проблемы, но и то, почему она важна и почему мы должны коллективно отдавать приоритет ее решению для достижения оптимальных результатов.

Решение сложных технических вопросов и поддержание связи с различными ключевыми лицами, включая руководителей, маркетологов, разработчиков продуктов и инженеров (помимо ваших непосредственных контактов), порой может показаться невероятно сложной задачей.

Кроме того, он предлагает исключительный пользовательский опыт и способствует приобретению уникальных технических навыков SEO, выходящих за рамки простых контрольных списков и руководств. Такой практический опыт бесценен при решении рутинных технических задач.

Проблема коммуникации в масштабе

Работа с корпоративными брендами часто подразумевает взаимодействие с многочисленными командами для обеспечения эффективного выполнения задач.

Некоторые компании организуют свои команды таким образом, чтобы они функционировали как единое ритмичное подразделение с определенными областями пересечения и бесперебойной коммуникацией.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

В отличие от других подходов, которые разделяют свою работу между изолированными командами, сосредотачиваясь на определенных веб-сайтах или географических областях, этот подход может создавать препятствия при представлении традиционных результатов и может усложнить достижение консенсуса для решения более широких технических проблем, которые влияют на весь сайт.

В нашей компании каждая рабочая группа, как правило, имеет уникальные цели и часто использует различные показатели для измерения успеха, известные как ключевые показатели эффективности (KPI).

Как опытный веб-мастер, я бы сказал так: важно, чтобы вы не только объединили свою основную точку контакта вокруг проблемы, но и объяснили более широкой команде, почему решение этой проблемы соответствует и их собственным интересам. Такой подход обеспечивает объединение усилий и более плавный процесс разрешения.

Добиться этого можно с помощью эффективной многоотделовой отчетности.

Вместо того, чтобы составлять один всеобъемлющий отчет для всех отделов, более эффективно создавать различные краткие и визуально привлекательные отчеты, адаптированные для конкретных групп заинтересованных сторон. Каждый отчет должен выделять ключевые показатели, имеющие отношение к их успеху, гарантируя им необходимую информацию для принятия обоснованных решений.

Вы можете создавать простые отчеты, например, отчеты Looker Studio, или, если у вас есть опыт работы с API, вы можете создавать собственные пользовательские панели отчетов.

Стандартные операционные процедуры (СОП)

Процедуры (СОП) позволяют вам совместно с клиентом создать структуру для установления и поддержания согласованности и масштабируемости, а также предоставляют средства для регистрации существенных изменений, выборов и исполнений.

Создание ресурсного центра для записи существенных обновлений является вполне стандартным, будь то в рамках бизнеса или нет. Однако, если пойти на шаг дальше, то можно создать стандартные операционные процедуры (СОП), которые подвергаются регулярным проверкам и пересмотрам.

Кроме того, этот метод облегчает ориентацию новых членов команды для клиента, гарантируя, что они хорошо информированы и оптимизируя процесс. Более того, он предлагает руководящие принципы для других клиентских команд, тем самым сводя к минимуму вероятность того, что они отклонятся от устоявшейся лучшей практики для бренда или внедрят идеи, которые они могли найти в случайном сообщении в блоге или предложении, данном большой языковой моделью (LLM).

При создании стандартных рабочих процедур (СОП) важно учитывать различные ситуации. Однако, основываясь на своем опыте, я заметил, что часто необходимы три основных СОП, поскольку они охватывают широкий спектр основ и помогают снизить потенциальные риски в технической поисковой оптимизации (SEO):

1. СОП оптимизации контента: эта процедура гарантирует, что ваш контент хорошо структурирован, оптимизирован по ключевым словам и соответствует лучшим практикам для SEO на странице.
2. СОП структуры сайта: правильная организация структуры вашего сайта может помочь поисковым системам эффективно сканировать и индексировать ваши страницы, облегчая пользователям поиск релевантной информации.
3. СОП технического аудита SEO: регулярные аудиты вашего сайта помогают выявить любые технические проблемы, которые могут негативно повлиять на вашу производительность SEO, такие как неработающие ссылки, медленное время загрузки или плохая мобильная оптимизация. Оперативно решая эти проблемы, вы можете поддерживать здоровый и эффективный сайт, который занимает высокие позиции в результатах поисковой системы.

  • Внутренняя перелинковка.
  • Оптимизация изображения.
  • Структуры URL.

Внутренняя перелинковка

Для SEO важно, чтобы мы включали внутренние ссылки в части нашего контента, за исключением целевых страниц. Когда это уместно, каждая часть контента должна содержать ссылки, ведущие обратно к другим соответствующим частям нашего сайта. Простая процедура для этого может быть такой:

— Всегда учитывайте возможности внутренних ссылок при создании или редактировании своего контента.
— Ссылайтесь на связанный контент, который предоставляет дополнительную ценность или контекст для читателя.
— Убедитесь, что связанный текст является описательным и понятным, чтобы читатели знали, что они найдут, когда нажмут на него.

  • Избегайте использования неописательного текста ссылки, например «здесь» или «эта статья», и предоставьте некоторый контекст относительно страницы, на которую ведет ссылка.
  • Избегайте внутренних ссылок без контекста, например, автоматического указания первого или второго упоминания слова или фразы на каждой странице на одну конкретную страницу.
  • Используйте инструмент Ahrefs Internal Link Opportunities или поиск Google (сайт:[yourdomain.com] «ключевое слово») для поиска возможностей для установления связей.

Оптимизация изображения

Распространенной ошибкой является игнорирование оптимизации изображений, поскольку она может значительно повысить скорость загрузки страниц, а если для вас важны рейтинги поиска изображений, она также может повысить вашу видимость в этих результатах. Эффективная стандартная операционная процедура (СОП) для этой задачи может включать следующие шаги:

1. Сжимайте изображения без потери качества, чтобы обеспечить их быструю загрузку.
2. Используйте описательные и релевантные имена файлов, а не общие, такие как IMG001.jpg.
3. Добавляйте alt-текст к каждому изображению, предоставляя краткое описание его содержимого для обеспечения доступности и помогая поисковым системам понимать контекст.
4. Включайте ключевые слова в alt-текст, где это уместно, чтобы улучшить SEO.
5. Используйте правильные размеры изображений, чтобы сохранить соотношение сторон и предотвратить искажение.
6. Оптимизируйте изображения для мобильных устройств, поскольку сегодня на них приходится значительная часть веб-трафика.

  • Используйте описательные имена файлов, а не перегружайте их ключевыми словами.
  • Написание альтернативного текста, который точно описывает изображение для обеспечения доступности, и не включает в него рекламные сообщения.
  • Выбор правильного формата файла и сжатие изображений для повышения скорости загрузки.

Структуры URL-адресов

Как опытный веб-мастер, я всегда отдаю приоритет оптимизации URL-адресов как для поисковых систем, так и для пользователей. Вот как я это делаю:

1. Сделайте URL-адреса понятными: используйте четкие, краткие и описательные слова, которые точно представляют содержимое каждой страницы.

2. Сохраняйте их релевантными: включайте ключевые слова, которые тесно связаны с содержимым, но избегайте переполнения ключевыми словами, так как это может негативно повлиять на SEO.

3. Сохраняйте их короткими: более короткие URL-адреса проще запомнить и ввести пользователям, и они также, как правило, лучше показывают себя в результатах поисковой системы.

4. Используйте дефисы или подчеркивания для разделения слов: это делает URL-адрес более читабельным и помогает поисковым системам понять структуру вашего URL-адреса.

5. Избегайте специальных символов и заглавных букв: поисковые системы могут интерпретировать их как разные слова, что может привести к путанице и снижению производительности SEO.

6. Поддерживайте единообразную структуру: единообразие URL-адресов может облегчить навигацию по вашему сайту как пользователям, так и поисковым системам.

  • Удаление ненужных стоп-слов, знаков препинания и пробелов (20%).
  • Использование дефисов вместо подчеркиваний.
  • Не перегружайте URL-адреса ключевыми словами.

Нюансы технического аудита

Одним из сложных аспектов проведения технического обзора корпоративного веб-сайта с большим количеством страниц является процесс сканирования веб-страниц, часто называемый «сканированием».

Когда дело доходит до сканирования корпоративных веб-сайтов, я часто сталкиваюсь с двумя повторяющимися аспектами. Во-первых, важно регулярно проводить выборочные сканирования. Во-вторых, управление сканированием для многослойной структуры домена может быть сложным.

Образец сканирования

Выборочное сканирование веб-сайтов — это практичный метод выявления существенных проблем SEO на крупных сайтах, позволяющий избежать ресурсоемкого процесса полного сканирования.

Благодаря разумному выбору методов выборки, сосредоточению внимания на важнейших частях и максимально эффективному использованию информации журнала вы сможете получить практические результаты, не снижая при этом эффективности сканирования.

Постарайтесь подобрать большой образец, который точно отражает структуру вашего веб-сайта, но при этом остается компактным для обеспечения эффективности.

Обычно я придерживаюсь этих принципов при определении масштаба веб-сайта, поддомена или папки.

 Размер  Количество URL-адресов Размер выборки
 Маленький  <10,000  Сканировать все или 90%+ URL-адресов.
 Середина  10 000–500 000  От 10% до 25% в зависимости от того, к какой части спектра относится ваше количество URL-адресов.
 Большой  >500,000 Выборка 1–5%, сосредоточенная на ключевых разделах.

Важно также выбирать образцы с умом, особенно когда количество URL-адресов достигает сотен тысяч или даже миллионов. Как правило, существует четыре основных метода выборки:

1. Простая случайная выборка: каждый URL-адрес имеет равные шансы быть выбранным.
2. Стратифицированная выборка: URL-адреса делятся на группы или слои на основе определенных характеристик, а затем из каждой группы берется случайная выборка.
3. Систематическая выборка: каждый n-ный URL-адрес выбирается из всего списка.
4. Кластерная выборка: URL-адреса группируются в кластеры или группы, а затем выбирается случайная выборка из этих кластеров. Затем URL-адреса каждого кластера включаются в окончательную выборку.

  • Случайная выборка: Выбирайте URL-адреса случайным образом, чтобы получить объективную картину состояния сайта.
  • Стратифицированная выборка: Разделите сайт на ключевые разделы (например, страницы продуктов, блог, страницы категорий) и сделайте выборку из каждого раздела, чтобы обеспечить сбалансированную информацию.
  • Приоритетная выборка: Сосредоточьтесь на страницах с высокой ценностью, таких как URL-адреса с самой высокой конверсией, разделы с высоким трафиком и недавно опубликованный контент.
  • Структурная выборка: Просканируйте сайт на основе внутренней иерархии ссылок, начиная с домашней страницы и основных страниц категорий.

Сканирование многоуровневых веб-сайтов

Разработка сканеров, способных перемещаться по сайтам, созданным с использованием различных технологических стеков, требует тактического подхода, учитывающего различные механизмы рендеринга, дизайн URL-адресов и потенциальные препятствия, такие как выполнение скриптов и процедуры аутентификации.

Кроме того, это подразумевает, что вы не можете просто проанализировать весь сайт сразу и предложить общие рекомендации для «всего сайта» в целом.

Вот общее руководство, к которому вам следует обратиться, поскольку оно охватывает многие важные аспекты и интересные моменты, с которыми вы можете столкнуться:

1. Общий контрольный список для справки: этот список содержит обзор основных тем для рассмотрения.

  1. Определите и составьте карту того, какие части сайта обрабатываются сервером, а какие — клиентом.
  2. Определите, какие области требуют аутентификации, например, пользовательские области.
  3. Если для доступа к разделам требуется вход в систему (например, приложение продукта), используйте сеансовые файлы cookie или аутентификацию на основе токенов в Playwright/Puppeteer.
  4. Установите задержки сканирования, если существует ограничение скорости.
  5. Проверьте наличие отложенной загрузки контента (прокрутка или нажатие).
  6. Проверьте, обеспечивают ли общедоступные конечные точки API более простое извлечение данных.

Иллюстрацией этого может служить веб-сайт, которым я управлял несколько лет. Его инфраструктура была сложной, что требовало различных подходов для навигации и эффективного обнаружения проблем в значительных масштабах.

 Компонент стека Подход 
Нукст Если используется SSR или SSG, работает стандартный обход. Если используется гидратация на стороне клиента, включите рендеринг JavaScript.
Призрак Обычно SSR, поэтому обычное сканирование должно работать. Если вы используете его API, рассмотрите возможность извлечения структурированных данных для лучшего понимания.
 Угловой Требуется рендеринг JavaScript. Такие инструменты, как Puppeteer или Playwright, помогают динамически извлекать контент. Тщательно обрабатывайте бесконечную прокрутку или ленивую загрузку.
 Зендеск Zendesk часто имеет ограничения для ботов. Проверьте доступ к API или RSS-каналы для статей справочного центра.

Вместо того чтобы выбирать самые экстремальные пути сканирования веб-страниц, лучше всего, если ваш инструмент сможет отображать веб-страницы, не полагаясь на такие инструменты, как Puppeteer, для извлечения контента.

Заключительная мысль

Для SEO-специалиста решение технических вопросов SEO в крупных корпорациях сопряжено с определенными трудностями; однако это также открывает возможности для очень полезного опыта и получения знаний, которые вы больше нигде не найдете, — опыта, который доступен не каждому SEO-специалисту.

Оптимизация ежедневных задач и обеспечение поддержки со стороны многочисленных заинтересованных сторон клиента могут способствовать более здоровому партнерству между клиентом и агентством, прокладывая путь для успешных инициатив по поисковой оптимизации (SEO).

Смотрите также

2025-02-13 16:11

DeepSeek и его влияние на глобальную гонку генеративного ИИ

С 26 января DeepSeek стало самым скачиваемым бесплатным приложением в американском магазине приложений Apple, собрав 16 миллионов загрузок за первые 18 дней. Для сравнения, ChatGPT собрал 9 миллионов загрузок за тот же период времени. Функциональность и функция поиска DeepSeek, по всей видимости, столь же эффективны, как и ChatGPT от OpenAI, при значительно меньших затратах.

Запуск продукта привел к рекордному падению рыночной капитализации американской технологической компании Nvidia, базирующейся в США, что стало впечатляющим дебютом.

Похоже, многие американские эксперты в области технологий и финансисты обеспокоены тем, что Соединенные Штаты могут отставать в мировой конкуренции по разработке передового искусственного интеллекта с упором на генерацию.

Учитывая оперативность и доступность, с которыми DeepSeek удалось произвести и запустить R1, такой подход представляется оправданным.

Однако действительно ли DeepSeek займет лидирующее положение в технологии ИИ? И если это так, каковы могут быть потенциальные последствия для будущего поиска? Давайте углубимся в этот вопрос.

Что произошло с момента запуска DeepSeek?

Хотя американские технологические компании были ошеломлены быстрыми темпами и предполагаемой экономической эффективностью этого запуска, дебют DeepSeek не обошелся без споров.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Возникает много вопросов, оставшихся без ответа, в таких областях, как потенциальные нарушения прав интеллектуальной собственности, проблемы безопасности и защиты данных, интернет-цензура в Китае и фактические расходы, связанные с их технологиями.

Правовые вопросы авторского права и защиты данных

OpenAI и Microsoft изучают, мог ли DeepSeek использовать интерфейс прикладного программирования (API) OpenAI с целью включения моделей искусственного интеллекта OpenAI в модели DeepSeek.

По данным OpenAI, имеются доказательства того, что DeepSeek использует выходные данные OpenAI для построения конкурирующей модели, что нарушает пользовательское соглашение OpenAI, но это может быть не противозаконным.

Извлекая знания из большой предварительно обученной модели, мы можем создать меньшую модель, которая будет работать так же, как и большая, но с меньшими затратами. Этот процесс по сути включает обучение меньшей модели, заставляя ее имитировать поведение большой модели.

Это довольно иронично, учитывая, что OpenAI столкнулась с юридическими проблемами из-за предполагаемого игнорирования условий обслуживания других сайтов и использования их защищенных авторским правом онлайн-данных для обучения своих систем.

Кроме того, возникают опасения относительно места хранения пользовательских данных и методов их обработки, поскольку DeepSeek, будучи китайской компанией, может вызывать вопросы о конфиденциальности и безопасности данных.

При работе с личной информацией клиентов и финансовыми транзакциями использование такого инструмента, как DeepSeak, который хранит данные в правовой системе другой страны, может привести к нарушению правил конфиденциальности данных и повысить риск несанкционированного раскрытия конфиденциальных данных.

Поскольку DeepSeek не раскрыл свои правила конфиденциальности, настоятельно рекомендуется проявлять максимальную осторожность при работе с конфиденциальными данными в DeepSeek, следуя советам отраслевых профессионалов и специалистов по кибербезопасности.

Нарушение безопасности DeepSeek

Будучи опытным веб-мастером, я недавно обнаружил уязвимости в известной платформе DeepSeek, что стало возможным благодаря впечатляющему опыту Wiz Research в области облачной безопасности, продемонстрированному ими 29 января.

Система получила неограниченный доступ к публичной базе данных, принадлежащей DeepSeek, что дало ей возможность управлять операциями с базой данных и извлекать пользовательские данные, а также ключи API.

Wiz уведомил группу DeepSeek, побудив их к быстрым действиям по защите информации. Тем не менее, остается неясным, кто еще мог получить доступ к данным или получить их до их защиты.

Хотя стартапы обычно действуют быстро и порой ошибаются, эта ошибка выделяется как существенная и свидетельствует о том, что DeepSeak еще не уделила первостепенное внимание кибербезопасности.

Проблемы национальной безопасности, схожие с TikTok

Практика сбора данных DeepSeek вызывает те же опасения в плане национальной безопасности, что и TikTok — платформа, которая привлекла внимание всего мира благодаря китайской компании ByteDance.

В январе 2025 года администрация США временно запретила TikTok из-за опасений относительно способа сбора компанией данных пользователей и потенциальной манипуляции американской аудиторией со стороны китайского правительства через эту платформу.

Хотя в настоящее время TikTok активен в США, его будущее не подтверждено.

Несколько стран, таких как Австралия и Италия, а также другие, предпринимают шаги, аналогичные тем, которые касаются TikTok, пытаясь запретить использование DeepSeek в своих правительственных системах и устройствах, а Соединенные Штаты также рассматривают возможность введения запрета на эту технологию.

Китайская цензура

Независимо от того, используете ли вы DeepSeek в своей собственной системе или через приложение, цензура DeepSeek всегда активна для любых запросов, которые китайское правительство считает конфиденциальными, как сообщается в расследовании журнала Wired.

Чтобы достичь этого, вам нужно будет управлять им самостоятельно на серверах с настроенными вариациями кода DeepSeek с открытым исходным кодом. Это подразумевает наличие необходимого доступа к нескольким передовым графическим процессорам для эффективного запуска самой мощной версии R1.

Questions About Cost

It’s commonly discussed how much it costs to construct DeepSeek. The original estimates provided by DeepSeek suggested a construction cost below $6 million, considering the rental prices of Nvidia graphics processors (GPUs).

Напротив, по данным SemiAnalysis — компании, специализирующейся на исследованиях и консалтинге в области полупроводников, — предполагается, что расходы DeepSeek на аппаратное обеспечение превысили 500 миллионов долларов, что сопровождается дополнительными расходами на исследования и разработки.

В 2024 году OpenAI понесла значительные убытки в размере около 5 миллиардов долларов. Заглядывая вперед к 2025 году, они прогнозируют убытки, превышающие 11 миллиардов долларов. Несмотря на то, что DeepSeek может стоить полмиллиарда долларов или больше, ей все равно удалось значительно сократить расходы по сравнению с расходами ведущих конкурентов.

Итак, как же им удалось сократить расходы?

До появления DeepSeek доминирующие технологии ИИ в основном полагались на нейронные сети — сложные обучающие инструменты, которые приобретают способности, исследуя огромные наборы данных. Эти процессы требуют значительных вычислительных ресурсов.

Графические процессоры, или GPU, особенно полезны для выполнения задач анализа данных. Фактически, это одна из основных причин, по которой такие компании, как Nvidia, достигли известности в этой области. Однако их акции значительно упали в день запуска DeepSeek.

Высокопроизводительные графические процессоры обычно продаются по цене около 40 000 долларов США и потребляют значительное количество энергии, что делает их одним из основных факторов, обуславливающих существенные затраты, связанные с разработкой передовых систем искусственного интеллекта, таких как ChatGPT от OpenAI.

Передача данных между чипами также может потребовать больше энергии, чем работа самих чипов.

DeepSeek удалось сократить расходы, в частности, за счет использования метода, называемого «смешением экспертов».

Вместо того, чтобы тренировать одну нейронную сеть для распознавания тенденций данных из сети, они разбили систему на множество нейронных сетей. Эти специализированные «экспертные» системы были объединены с универсальной системой, тем самым уменьшив объем данных, которые необходимо было передавать между процессорами GPU.

Последствия открытого исходного кода

Как и в случае с Llama от Meta, его код и базовые концепции находятся в открытом доступе, что позволяет разработчикам и компаниям адаптировать его в соответствии со своими конкретными требованиями. Однако точный источник данных для обучения остается нераскрытым.

Многие считают DeepSeek значительным шагом на пути к повышению доступности ИИ, позволяющим малому бизнесу и отдельным разработчикам использовать DeepSeek-R1 и быстрее выполнять сложные задачи ИИ.

В регионах, где технологии для разработки искусственного интеллекта отсутствуют, такая ситуация может способствовать росту креативности и прогрессу в разработке искусственного интеллекта.

DeepSeek и будущее SEO

По сути, каковы выводы для экспертов по поиску относительно DeepSeek? Для меня это выглядит как еще один привлекающий внимание ИИ-чатбот, предлагающий функции поиска, появляющийся в динамичном и развивающемся ландшафте SEO.

Имейте в виду, что такие системы, как DeepSeek и ChatGPT, используют сложные методы обработки естественного языка (NLP) и машинного обучения. Однако их основная функция — отвечать на подлинные запросы реальных людей, а не создавать оригинальные мысли или обладать личным сознанием.

Проще говоря, их ответы в первую очередь сосредоточены на понимании смысла, соответствии намерениям пользователя и анализе контекста, и все это направлено на удовлетворение основных потребностей пользователя.

Несмотря на многолетний опыт тестирования стратегий оптимизации в таких известных поисковых системах, как Google, мы только начинаем постигать нюансы оптимизации для ИИ-чат-ботов, которые генерируют ответы.

Заключительные мысли

Пока неизвестно, сохранится ли популярность DeepSeek и будет ли он расти.

Если другие страны введут запреты, аналогичные тем, которые рассматривают Австралия, Италия и, возможно, США в отношении DeepSeek, это может существенно ограничить возможности его расширения.

Подобно тому, как DeepSeek быстро завоевал популярность, предложив другим дорожную карту и существенно сократив расходы, совсем рядом может появиться еще один потенциально революционный ИИ.

Независимо от результата DeepSeek, мы вступаем в невероятно стремительную фазу развития технологий искусственного интеллекта (ИИ).

В нашей роли экспертов по поисковой оптимизации (SEO) для нас важно быть готовыми исследовать волну новых платформ и понимать методы, которые они используют для генерации ответов на вопросы пользователей.

Смотрите также

2025-02-13 15:10