Reconozcámoslo, la inteligencia artificial ha supuesto un gran cambio en la forma de crear y publicar contenidos en línea. Muchos sitios web ya han adoptado la IA para producir contenidos de alta calidad optimizados para SEO.
Pero, ¿cómo reacciona Google ante el contenido generado por IA? ¿Lo considera contenido humano o spam?
El experto de Google Martin Splitt respondió recientemente a esta pregunta, explicando cómo Googlebot rastrea, renderiza y procesa los contenidos generados por IA.
En este artículo, veremos cómo trata Google los contenidos creados con inteligencia artificial.
Martin Splitt habla sobre cómo gestiona Google los contenidos generados con IA
Martin Splitthabló sobre cómo gestiona Google los contenidos generados con IA en un seminario web titulado Explorando el arte de la renderización.
Estaba respondiendo a un miembro del público que quería saber si la afluencia de contenidos de IA en línea podría dificultar la capacidad de Google para procesar la información en lo que respecta al renderizado y la exploración.
La pregunta era:
«Dicen que la producción de contenidos está aumentando debido a la IA, lo que incrementa las cargas de rastreo y renderizado. ¿Esprobable que haya que simplificar los procesos de renderizado?«
En otras palabras, el ponente quiere saber si Google ha tomado alguna medida específica ante el aumento de los contenidos en línea, dado que la carga sobre el rastreo y el renderizado aumentará significativamente.
Inicialmente, Martin respondió:
«No, creo queno».
A continuación, explicó cómo determina el motor de búsqueda las páginas de baja calidad durante el rastreo y cómo procede una vez que ha encontrado este tipo de páginas.
¿Cómo detecta los contenidos generados por IA?
Una de las mayores preocupaciones de los profesionales sobre la IA es la capacidad de Google para detectar el texto que genera.
Martin también abordó esta cuestión durante su presentación.
Afirmó:
«Asíque realizamos la detección o el control de calidad en varias etapas, y la mayoría de los contenidos s****l no necesitan necesariamente JavaScript para mostrarnos lo s****l que son.
Así que si vemos que es contenido s****l antes, nos saltamos la renderización, ¿qué sentido tiene?
Si vemos, vale, esto parece absoluto… podemos estar muy seguros de que es basura, y de que JavaScript sólo podría añadir más basura, así que adiós. Si es una página vacía, podemos decirnos a nosotros mismos que no lo sabemos.
La gente generalmente no pone páginas vacías aquí, así que al menos intentemos renderizar. Y entonces, cuando el render devuelve un zurullo, pensamos, sí vale, es que, ha sido un zurullo.
Así que ese ya es el caso. No es nada nuevo. La IA puede aumentar la escala, pero no cambia mucho. Elrenderizado no es el culpable aquí«.
El contenido de la IA pasa la prueba de calidad
Con la respuesta de Martin, vemos que Google no procede a detectar la IA, sino que utiliza varios medios para determinar si el contenido es de calidad o no.
Esto es perfectamente normal en la medida en queel algoritmo de Google no está diseñado para detectar los contenidos de baja calidad generados por la IA, pero sí los descubre automáticamente.
Recuerde el sistema de contenido útil, cuyo objetivo era recompensar a los sitios que producían contenido de alta calidad para los usuarios de la web.
Danny Sullivan escribió
«...estamos introduciendo una serie de mejoras en el motor de búsqueda para facilitar la búsqueda de contenidos útiles escritos por y para personas«.
En otras palabras, Google no sólo está destacando el contenido escrito para humanos, sino también el contenido escrito por humanos.
En otras palabras, el motor es capaz de diferenciar entre contenidos generados por humanos y otros contenidos, así como contenidos de baja calidad.
Según los investigadores
«Este trabajo postula que los detectores entrenados para distinguir entre texto escrito por humanos y texto escrito por máquinas son predictores eficaces de la calidad lingüística de las páginas web, superando a un clasificador básico supervisado de spam«.
En otras palabras, se trata de un aspecto clave de la SEO y la visibilidad en línea.
Por su parte, Martin afirmó
«...realizamos la detección o el control de calidad en varias etapas…..
Así que ya está ocurriendo. No es algo nuevo. La IA puede aumentar la escala, pero no cambia mucho«.
Dicho de otro modo:
- Google no está aplicando ninguna medida nueva a los contenidos generados;
- El motor de búsqueda utiliza la detección de calidad tanto para los contenidos escritos por humanos como para los escritos por IA.
¿Qué es la renderización de páginas web por parte de Googlebot?
Googlebot no es más que el nombre del robot de indexación de Google que explora la web y recupera información de las páginas web para añadirlas al índice del motor de búsqueda.
La renderización de páginas web por parte de Googlebot es un proceso que permite al robot comprender cómo se muestran las páginas web a los usuarios. Tiene en cuenta los elementos visuales, el contenido dinámico, JavaScript, CSS y otros recursos.
Es a través de la renderización de páginas web por parte de Googlebot como el motor de búsqueda evalúa la calidad, relevancia y utilidad de las páginas web para los internautas.
Este vídeo es la presentación completa de Martin Splitt durante el seminario web.
En pocas palabras
En conclusión, Google trata el contenido de la IA de la misma manera que trata el contenido escrito por humanos. Por lo tanto, estos contenidos deben cumplir las directrices de calidad del motor de búsqueda.