Google на низкоэффективном контенте, который выглядит хорошо

Джон Мюллер из Google использовал синтетический образ, созданный ИИ, чтобы подчеркнуть свою позицию на мелком контенте, который кажется отполированным, но не имеет подлинных знаний. Его замечания оспаривали представление о том, что такой низкокачественный контент приемлем только из-за его поверхностного мастерства.

Сравнение с реальной экспертизой

Комментарий Мюллера сослался на практику контента реальных экспертов.

В неэсео сообществах, как часто вы сталкиваетесь с «техническими» или «экспертными» статьями с изображениями, сгенерированными ИИ? Это довольно интригует для меня, когда я сталкиваюсь с этими типами изображений. [*] (Примечание: звездочка (*) представляет эмодзи, чтобы передать дружеский и увлекательный тон.)

1) Поскольку я знаю, что они упустили из виду статью, я чувствую, что уместно делать то же самое при чтении их работы. Кроме того, кажется разумным заблокировать их в социальных сетях.

Низкое содержание усилий

Затем Мюллер вызвал низкоэффективную работу, которая приводит к контенту, который «выглядит хорошо».

Мне сложно справиться с чувством, что «хотя наша работа требует минимальных усилий, это выглядит великолепно». В действительности, скорость и доступность будут доминировать в создании массового контента, что означает, что эта проблема сохраняется и может не измениться в течение длительного времени или, возможно, никогда. Независимо от этого, я все еще рассматриваю «низкоэффективные, но хорошо» как просто низкоэффектив.

Речь идет не о изображениях ИИ

Пост Мюллера не сосредоточен на A-созданных A-образах; Вместо этого он рассматривает контент, который кажется высококачественным, но не имеет субстанции. Чтобы обеспечить какой -то контекст, позвольте мне поделиться историей, которая разъясняет мою точку зрения. Я наткнулся на SEO на Facebook, хвастую о превосходстве их сгенерированного AI контента. Любопытно, я спросил, полагались ли они на это для локального создания контента SEO. Их ответом был твердый «Нет, нет, нет, нет», и они выразили обеспокоенность по поводу того, насколько низким и ненадежным был содержание, связанное с этой темой.

Они не объяснили, как они пришли, чтобы доверять другому контенту, созданному A-созданием. Казалось возможным, что они не признали связь или заставили специалиста проверить ее и решили не делиться этой информацией. В любом случае, я решил не подвергать сомнению это.

Или:

Они не давали причины для своего доверия к сгенерированному AI контенту. Возможно, они упустили из виду связь между контентом и его источником, или, возможно, эксперт подтвердил ее, не упоминая об этом. В любом случае, я решил не выносить суждение и оставил его при этом.

Следует ли поднять стандарт для добра?

Учитывая, что CHATGPT включает в себя предупреждение о том, что он не полагается на него полностью, возможно, мы должны применить более строгий стандарт при оценке качества контента, сгенерированного AI. Это связано с тем, что даже ИИ, предназначенный для предоставления информации, может иметь ограничения и может потребовать дополнительного контроля по сравнению с созданным человеком содержанием.

Экриншот: ИИ не ручается за ее надежность — должен ли вы?

CHATGPT рекомендует проверить вывод

Ключевой вопрос заключается в том, что для кого -то не может быть сложным различным знанием различения подлинного экспертного контента и контента, созданного для имитации опыта. Искусственный интеллект, разработанный для этого, превосходно создает впечатление опыта. Поскольку даже модели искусственного интеллекта, такие как CHATGPT, советуют проверку их результатов, было бы полезно, чтобы настоящий эксперт изучал контент-кренак, прежде чем стать публичным.

Прочитайте комментарии Мюллера здесь:

Я борюсь с комментариями «но наша работа с низким содержанием работы на самом деле выглядит хорошо».

Смотрите также

2025-03-04 01:39