Lainteligencia artificial (IA) nos asombra por su rendimiento en muchos ámbitos. Pero, ¿cómo aprenden las IA a hacer lo que hacen?
La respuesta es sencilla: alimentándose de datos masivos procedentes de la web. Gracias a estos datos, IA como ChatGPT y Bard han podido adquirir conocimientos y habilidades que les permiten comprender el mundo real con precisión.
Pero este método de aprendizaje plantea problemas legales y éticos, sobre todo en lo que respecta a los derechos de autor. Google, que hace un amplio uso de los datos en línea para entrenar a sus IA, ha propuesto modificar la legislación vigente al respecto.
En este artículo, echamos un vistazo a esta propuesta y a sus implicaciones.
La propuesta de Google sobre la accesibilidad de los contenidos en línea a las IAs
Google ha propuesto que todos los contenidos en línea sean accesibles a las IA para su entrenamiento, a menos que los editores no estén de acuerdo. En una propuesta al gobierno australiano, el motor de búsqueda ha defendido un cambio en las leyes vigentes sobre derechos de autor.
Google quiere que la IA pueda acceder a todos los contenidos digitales, a menos que los editores decidan no participar. El gigante de la web ha presentado esta propuesta al gobierno australiano para animarle a cambiar las actuales leyes de derechos de autor.
Si estas leyes cambian, recaerá sobre las marcas y los editores la responsabilidad de impedir que la IA explote sus contenidos.
Si no lo hacen, podrían encontrarse compitiendo con contenidos muy similares e incapaces de hacer valer sus derechos, lo que podría perjudicar gravemente a una campaña en términos de imagen e identidad.
En su carta al gobierno australiano, Google afirma:
«Sistemas de derechos de autor que permitan un uso apropiado y justo de los contenidos protegidos por derechos de autor para el entrenamiento de modelos de IA en Australia sobre una amplia y variada gama de datos, al tiempo que apoyen opciones de exclusión viables para las entidades que prefieran que sus datos no se utilicen en los sistemas de IA«
El motor de búsqueda ya ha presentado anteriormente casos similares al gobierno australiano, argumentando que la IA debería poder hacer un uso justo de los contenidos en línea con fines de entrenamiento.
Pero esta es la primera vez que Google sugiere una cláusula de exclusión voluntaria para responder a preocupaciones anteriores.
¿Cuál es el plan de Google con los contenidos y la IA?
Google aún no tiene un plan concreto, pero ha expresado su deseo de entablar conversaciones para poner en marcha un estándar web desarrollado por la comunidad.
Podría tratarse de algo similar al sistema robots.txt, que permite a los editores impedir que los motores de búsqueda rastreen sus contenidos.
Al respecto, Danielle Romain, vicepresidenta de confianza de Google Search, anunció en un comunicado de prensa el mes pasado que:
«Un ecosistema de contenidos dinámico beneficia a todos. La clave es que los editores web tengan opciones y control sobre sus contenidos y oportunidades para aprovechar su participación en el ecosistema web.
Sin embargo, reconocemos que los controles existentes para los editores web se desarrollaron antes de la aparición de nuevos usos para la IA y la búsqueda.
Creemos que ha llegado el momento de que la comunidad de la web y la IA exploren medios adicionales, legibles por máquina, para la elección y el control del editor web para los usos emergentes de la IA y los casos de búsqueda.«
En otras palabras, es importante contar con un ecosistema de contenidos dinámico que beneficie a todas las partes implicadas.
La idea central es que los editores web deben tener la libertad de decidir y controlar sus contenidos, al tiempo que pueden beneficiarse de su participación en el ecosistema en línea.
En resumen
En conclusión, Google quiere que la legislación sea favorable al uso de contenidos en línea para entrenar la inteligencia artificial. El objetivo es que los creadores de contenidos puedan decidir por sí mismos si su contenido puede ser consultado por las IA.