Аналитик качества поиска Google обнаруживает и обрабатывает контент, созданный искусственным интеллектом

Крис Нельсон, старший аналитик по персоналу, специализирующийся на поисковом рейтинге в Google, внес изменения в свой профиль в LinkedIn, уточнив, что он курирует значительную команду, отвечающую за разработку решений по ранжированию для поисковой системы Google. Один из аспектов его роли заключается в решении уникальных вопросов контента, таких как выявление и обработка контента, созданного искусственным интеллектом.

Вот скриншот:

Вот биография:

Я руковожу большой глобальной командой, которая разрабатывает решения для ранжирования в рамках Google Поиска и курирую следующие области:

1. Обеспечьте справедливость системы ранжирования, избегая тактики манипулирования, такой как злоупотребления, спам или вредные практики.
2. Предлагайте как качественный, так и количественный анализ проблем качества, включая вовлечение пользователей и аналитическую информацию.
3. Решение новых задач, связанных с созданием контента, таких как эффективное выявление и управление контентом, созданным с помощью ИИ.
4. Признавайте и цените полезный и полезный контент, предоставляя соответствующие вознаграждения.

В настоящее время Крис Нельсон проработал в Google более полутора десятилетий, и на протяжении всех этих лет о нем часто упоминали на нашей платформе.

Интересно, что он включает в себя «обнаружение и управление контентом с помощью искусственного интеллекта», учитывая точку зрения Google на контент, создаваемый искусственным интеллектом. Не так давно Google прямо заявил, что создание контента для ссылок с использованием ИИ противоречит их рекомендациям. Более того, они предостерегают от чрезмерной зависимости от контента ИИ, подразумевая, что это может нанести вред. Во время интервью с Дэнни Салливаном Google предупредил меня о потенциальном неправомерном использовании контента ИИ, особенно в форме масштабного злоупотребления контентом.

Мне интересно узнать о будущих разработках в области контента, генерируемого искусственным интеллектом, и качества поиска Google, и это потенциально может быть показателем того, что будет дальше.

Подсказка:

Крис Нельсон, член команды Google по обеспечению качества поиска, согласно его профилю в LinkedIn, курирует международную группу, отвечающую за создание решений для ранжирования в Google Поиске, уделяя особое внимание обнаружению и устранению контента, созданного искусственным интеллектом.

>— Гаган Готра (@gaganghotra_) 16 января 2025 г.

Смотрите также

2025-01-20 16:44

Google: не обновляйте файл robots.txt динамически несколько раз в день

Как специалист по цифровому маркетингу, я недавно узнал от Джона Мюллера из Google, что частое обновление файла robots.txt в течение одного дня не дает существенных преимуществ для контроля скорости сканирования или индексации из-за того, что Google кэширует файл robots.txt. примерно на 24 часа. Поэтому, возможно, было бы более эффективно вносить изменения реже, чем пытаться динамически обновлять их в течение дня.

Как специалист по цифровому маркетингу, я понимаю, что контролировать, когда Google сканирует определенные страницы, может быть непросто. Важно отметить, что если вы не хотите, чтобы Google сканировал страницу в 7 утра, это все равно может произойти из-за обычного графика сканирования Google. Однако, если Google потребуется просканировать ту же самую страницу в 9 утра, вам потребуется внести соответствующие изменения в настройки или контент вашего сайта, чтобы эффективно сигнализировать об этом намерении.

Джон Мюллер написал на Bluesky в ответ на этот пост:

ВОПРОС:

Один из наших технических специалистов спросил, могут ли они загрузить файл robots.txt утром, чтобы заблокировать робота Googlebot, а еще один — днем, чтобы разрешить ему сканирование, поскольку веб-сайт большой, и они опасались, что это может перегрузить сервер. Как вы думаете, это будет хорошей практикой?

Конечно, скорость сканирования Googlebot регулируется в зависимости от скорости реагирования вашего сервера. Было интересно узнать, знали ли вы об этом факте. Ваше здоровье!

ОТВЕЧАТЬ:

Это плохая идея, поскольку файл robots.txt может храниться в кэше до 24 часов (developers.google.com/search/docs/…). Мы не рекомендуем динамически изменять файл robots.txt таким образом в течение дня. Вместо этого используйте 503/429, если сканирования слишком много.

С 2010 года мы знали, что файл robots.txt не следует делать динамическим, и уже некоторое время знакомы с правилом 24 часов в Google.

Смотрите также

2025-01-20 16:44

Страшный фишинг в Google Рекламе

В некоторых результатах поиска пользователи сталкиваются с обманной попыткой фишинга Google Рекламы. Иногда во время поиска может всплывать мошенническая информация, направляющая вас на URL-адрес Сайтов Google, который не принадлежит Google. Здесь он просит вас войти в свою учетную запись Google, используя свое имя пользователя и пароль.

Я наткнулся на мошенничество, продемонстрированное в видео, которым Фабрицио Трентакости поделился на LinkedIn. Я конвертировал видео в GIF, но вы можете просмотреть все видео, нажав на него:

Я нашел видео мошенничества, которое Фабрицио Трентакости разместил в LinkedIn. Я преобразовал видео в GIF, но для полного просмотра нажмите, чтобы посмотреть полную версию:

Представитель Google по рекламе Джинни Марвин признала обеспокоенность и передала ее. Они строго запрещают рекламу, которая направлена ​​на то, чтобы обманом заставить пользователей раскрыть личные данные или обмануть их. Их команды в настоящее время внимательно изучают этот вопрос и усердно работают над его скорейшим решением.

1. Не попадайтесь на уловки этих мошенников и давайте скрестим пальцы, чтобы Google уже устранил эту проблему, когда эта статья будет опубликована. (Неофициальный)

2. Не дайте себя обмануть этими минусами, я надеюсь, что Google позаботится о проблеме к моменту выхода этой статьи. (Нейтральный)

3. Держитесь подальше от этих мошенничеств; Мы надеемся, что Google уже решил эту проблему, когда появится эта новость. (Неофициально, немного более формально, чем вариант 1)

Смотрите также

2025-01-17 17:13

Скоро появится Google Ads Search Max?

Похоже, что Google может ввести Search Max в Google Ads в ближайшем будущем. Некоторые рекламодатели заметили опцию «Максимальная поисковая оптимизация» в отчете о типах соответствия Google Рекламы.

В сообщении Адриана Деккера в LinkedIn Ларс Тонинг Дибро заметил скриншот «Search Max», появляющийся в отчете о типах соответствия.

Как опытный веб-мастер, я должен признать, что исчерпывающих ресурсов о Search Max недостаточно. Тем не менее, я наткнулся на некоторые ценные идеи, написанные Адрианом Деккером, которые вы можете найти прямо здесь.

Search Max призван адаптироваться к постоянно меняющейся поисковой среде, предоставляя более умную и эффективную рекламу. Эта инновационная функция сочетает в себе сопоставление поисковых запросов и оптимизацию текста и URL-адресов, чтобы помочь маркетологам расширить охват, повысить релевантность пользователей и повысить конверсию.

Это выглядит очень знакомо, и я думал, что уже писал об этом раньше, но не могу найти. 🙂

Смотрите также

2025-01-17 17:14

Google обновляет примеры мероприятий и изображения примерной зарплаты в документах со структурированными данными

Кажется, Google недавно пересмотрел примеры скриншотов для мероприятия и спрогнозировал разделы оплаты в своей разметке структурированных данных — функции, поддерживаемой поиском Google. Эта вероятная корректировка, вероятно, направлена ​​на более близкое соответствие текущим, более свежим дизайнам Google, которые видны в реальных результатах поиска.

Вот скриншот живой версии по сравнению с предыдущей версией:

Как опытный веб-мастер, я заметил, что некоторые примеры на странице справки Google выглядят устаревшими. Я уверен, что Google в какой-то момент обновит эти примеры, чтобы их рекомендации оставались актуальными и актуальными.

Смотрите также

2025-01-17 17:14