Con la voluntad de establecer un ecosistema publicitario “seguro en su propio diseño” y la “responsabilidad” de ser el principal soporte de los anuncios para miles de millones de personas, Google presentaba este lunes su último informe anual sobre seguridad publicitaria. Duncan Lennox, (VP & GM de Ads Privacy & Safety) exponía junto con Alejandro Borgia (director, product manager Ads Safety) los resultados principales, que incluyen 5.500 millones de anuncios y 12,7 millones de cuentas bloqueados o eliminados en 2023.
El impacto de la IA generativa es para ellos “la tendencia más importante" del año pasado. Tanto para lo bueno como para lo malo. Es decir, ha supuesto cambios significativos en la optimización del rendimiento o en la edición de imágenes, pero también ha planteado “nuevos desafíos” como los deepfakes. Por tanto, no es de extrañar que hayan tenido que actualizar sus políticas para anunciantes y editores de contenido más de 30 veces sólo el año pasado.
Ante todo, los de Google aseguran que este avance de la IA generativa es “una oportunidad única para hacer cumplir las normas" de mejor forma. Los sistemas de aprendizaje automático también han mejorado, y con la asistencia de la IA ahora son mucho más eficaces que hace unos años para detectar estos anuncios malignos a tiempo. El único problema era ese: que actuaran a tiempo, ya que su objetivo es bloquearlos o eliminarlos “antes de que lleguen” a las plataformas de Google.
Hasta hace unos años los modelos de aprendizaje necesitaban “miles, incluso millones, de ejemplos” de infracciones para después poder detectarlas de forma automática, comentaba Lennox. Ahora, los grandes modelos lingüísticos (LLM) son capaces de revisar e interpretar con rapidez grandes volúmenes de contenidos, captando incluso matices importantes. Esto les permite tomar decisiones “a mayor escala y de manera más precisa".
Igualmente, tratan de proteger a los anunciantes y al público, retirando su publicidad de páginas y sitios web de editores que incumplen sus políticas. Por ejemplo, los de contenido sexual explícito o productos peligrosos, continuaba Lennox. En 2023, bloquearon o restringieron la aparición de anuncios en más de 2.100 millones de páginas de editores de contenidos, “un poco más que en 2022”. Además, el año pasado suspendieron “a nivel de sitio web” más de 395.000 sitios de editores; ”un notable aumento" respecto a 2022.
Entre los problemas más habituales que tratan de combatir en su publicidad, los timos y fraudes están en el centro de la diana. Más de 10 millones de dólares se perdieron por culpa de estas prácticas en Estados Unidos durante el pasado año, tal como recoge su Comisión Federal de Comercio. Actualizando sus políticas y creando equipos de respuesta rápida confían en haber estrechado el cerco, aunque saben que estas amenazas están “en continuo proceso de cambio”.
Entre las técnicas que emplea Google para limitar la difusión de agentes maliciosos y reducir el riesgo de estafas y anuncios engañosos, Lennox destacaba la reciente actualización de su política de limitación de la publicidad. Desde el pasado noviembre, dicha política incluye un periodo de “prueba” para los anunciantes “que aún no tienen un historial consolidado de buena conducta”. Durante ese periodo, las apariciones de sus anuncios pueden limitarse en determinadas circunstancias, como por ejemplo, “si no está clara la relación entre el anunciante y la marca a la que hace referencia”.
Uno de los casos que más les preocupa son los anuncios de planes para hacerse rico rápidamente. A ellos apunta su política sobre afirmaciones financieras de escasa fiabilidad. Según detallaba Lennox, los actores maliciosos ha refinado sus técnicas, adaptando su publicidad a nuevos productos o servicios como las criptomonedas. Gracias a su modelo de IA (Gemini), sus LLM pueden identificar mejor los patrones de estos actores, así como las nuevas tendencias financieras, y actuar con mayor agilidad.
Aun así, reconocen: “Apenas hemos empezado a capitalizar las posibilidades de los LLM en beneficio de la seguridad de la publicidad”. Las tendencias financieras cambian a una “velocidad pasmosa” y es difícil diferenciar servicios legítimos y fraudulentos. Algo que también ocurre con el último uso abusivo que ha popularizado la inteligencia artificial: ‘contenido sintético’ y deepfakes.
“Entre finales de 2023 y principios de 2024, nos enfrentamos a una campaña selectiva de anuncios que utilizaba la imagen de personajes públicos, en muchos casos con uso de deepfakes, para tratar de estafar al público”, advertía Borgia. De nuevo, creando equipos de acción rápida para detectar patrones y poniendo al día su política de presentación engañosa, pudieron suspender 206,5 millones de anuncios que la incumplían. Y más de 270 millones por incumplir su política de servicios financieros.
Y si el fraude ya es delicado entre los civiles, más aún entre candidatos políticos. Este año se celebran además varios procesos electorales de primera magnitud en todo el mundo (entre ellos las elecciones de EE.UU.). Por ello desde Google han impuesto a los anunciantes electorales requisitos de verificación de identidad y transparencia, así como restricciones sobre la forma en que pueden dirigir sus anuncios electorales.
A través de su base de datos, los informes de transparencia de dichos anuncios electorales (accesibles para todo el mundo) permiten consultar toda la información requerida al anunciante: a qué público y región se destina, quién destina cuánta cantidad y el número de interacciones con dicho anuncio. Más de 5.000 nuevos anunciantes fueron registrados en 2023, y más de 7 millones de anuncios “no completaron el proceso de verificación".
Además, han querido cubrir el alcance de la IA en este tipo de publicidad, siendo pioneros en establecer requisitos para aquellos que hagan campaña con “contenidos sintéticos” (creados por IA). “Cada vez son más los anunciantes que explotan las posibilidades de la IA”, aseveraba Borgia, “y queremos que los votantes se puedan fiar” de los candidatos. "En paralelo, hemos reforzado la aplicación de nuestras políticas contra los anuncios que contienen afirmaciones electorales objetivamente falsas, susceptibles de socavar la confianza o la participación en los procesos democráticos", desgranaba el de Google.
No saben qué vendrá este 2024, pero asociándose con organizaciones como la Global Anti-Scam Alliance y Stop Scams UK (para facilitar el intercambio de información), y generando un archivo global para consultar todos los anuncios procedentes de anunciantes verificados (el Centro de Transparencia Publicitaria), esperan “estar preparados” para cualquier desafío. De momento, si es demasiado bueno o malo como para ser cierto… ya saben.