Es fácil dejarse llevar por la promesa de la tecnología de inteligencia artificial y sus aplicaciones, y mucho menos por el drama detrás de escena en la sala de juntas. (Aquí hay una predicción para 2024: “OpenAI: La película”… ¡hecha por IA!).
La exuberancia a favor de la IA no es infundada: Estimaciones del Banco de América La IA tendrá un impacto económico world-wide de 16 billones de dólares para 2030, y WFA dice El 75% de los anunciantes ya utilizan o utilizarán pronto la IA generativa.
Pero no todo es coloration de rosa, por supuesto. La velocidad de innovación y despliegue de la IA ha generado preocupaciones sobre los riesgos y daños a las personas y las empresas, algunos de los cuales pueden haber contribuido a la reciente agitación entre los líderes de OpenAI. Y los reguladores se han dado cuenta. 
Equilibrando oportunidades y riesgos
El valor de la IA está en procesar datos en volúmenes y formas que las personas no pueden. Pero eso no siempre funciona como se esperaba. Los riesgos y oportunidades de la IA abarcan tres fuerzas que dan forma al ecosistema publicitario: privacidad, seguridad y eficiencia. Es esencial comprender y anticipar los riesgos (y emplear controles y equilibrios) en estas áreas para mitigar los daños y aprovechar las oportunidades.
Eficiencia
La inversión en IA está motivada por la búsqueda de liberar tiempo y aumentar las capacidades humanas mediante la computación y el reconocimiento de patrones que nuestras mentes nunca podrían lograr. Para las empresas, los beneficios incluyen una iteración más rápida, una mayor automatización y amplificación de la creatividad:
- El aprendizaje automático ha impulsado durante mucho tiempo la eficiencia al hacer coincidir anuncios con consumidores relevantes sin indicadores demográficos.
- En las fases iniciales, el proceso creativo ahora emplea IA generativa para idear, producir y probar conceptos.
- Para la seguridad de la marca, la IA puede aumentar la escala y la precisión para señalar contenido problemático en grandes conjuntos de datos derivados de editores/plataformas. También puede permitir que el contenido infractor se elimine antes o que no aparezca en absoluto, lo que genera una experiencia más segura y confiable.
Apenas estamos arañando la superficie de las ganancias en eficiencia, lo que hace que sea essential tener una comprensión profunda de los riesgos.
Privacidad
La mayoría de las preocupaciones sobre la privacidad y la protección de datos de la IA giran en torno a los grandes modelos de lenguaje (LLM), como GPT, que interpretan el contenido para generar texto, gráficos y salidas de audio e interactuar con las personas.
Estos modelos requieren y procesan cantidades masivas de datos de entrenamiento, y “desaprender” datos confidenciales es muy difícil, lo que requiere corregir el rumbo con datos e instrucciones actualizados.
Suscribir
AdExchanger diario
Reciba el resumen de nuestros editores en su bandeja de entrada todos los días de la semana.
Por lo tanto, proteger la privacidad requiere que existan barreras de seguridad claras y supervisión humana. antes del entrenamiento. Esto puede evitar la fuga de datos, como la transmisión o el uso inadvertido de información private en respuesta a un mensaje inofensivo… o un videollamada.
Afortunadamente, las soluciones técnicas pueden ayudar. Los principales proveedores han pasado a alojar conjuntos de datos de capacitación, lo que no garantiza inherentemente la privacidad pero sí agrega cierto management. Otras tecnologías pueden clasificar datos confidenciales, aislar información own y anonimizarlos antes de enviarlos a los modelos. Tecnologías que mejoran la privacidad (PET) como Privacidad diferencial puede inyectar aún más «ruido» para frustrar la reidentificación, la criptografía puede anonimizar los datos, and so forth.
Vale la pena señalar que la IA también presenta oportunidades de privacidad. El mismo reconocimiento de patrones, cuyo entrenamiento requiere cuidado, puede identificar el uso indebido de datos o incluso fugas dentro de grandes conjuntos de datos. Esto puede detectar violaciones de datos y proteger los datos de los consumidores, al tiempo que evita demandas contra las empresas.
Lo que puedes hacer:
- Asegúrese de que existan protecciones de datos desde el principio y pregunte a sus socios cómo mantienen seguros los datos de los clientes.
- Elimine tanta información private como sea posible antes de entrenar soluciones de IA. Es difícil filtrar algo que no está ahí en primer lugar.
- Si corresponde, aproveche las herramientas basadas en inteligencia artificial para identificar el uso indebido y la fuga de datos.
- Sea sincero con sus clientes sobre el uso de la IA. En la mayoría de los casos, lo que se intenta es generar beneficios para el cliente y ser transparente fomenta la comodidad.
Seguridad
La rápida adopción de la IA en la publicidad plantea importantes preocupaciones de seguridad. La naturaleza opaca de la IA ha generado problemas de prejuicios raciales y de género. Un ejemplo notorio es cuando los anuncios de viviendas, que legalmente no pueden orientarse a categorías protegidas, fueron dirigido a través de modelos similares.
Los riesgos más nuevos incluyen la IA generativa que make desinformación, infringe los derechos de autor del contenido de capacitación y revela información confidencial. Todos estos riesgos crean riesgos para la seguridad del consumidor, la seguridad de la marca y los litigios.
Para minimizar estos riesgos:
- Emplee supervisión humana sobre los modelos de IA integrados en sus procesos comerciales. Pregunte a los socios sobre sus prácticas de supervisión y correccionales para asegurarse de que sus estándares se alineen con los suyos.
- Comprenda las leyes y regulaciones de su sector industrial y asegúrese de que se cumplan.
- Usted es quien mejor conoce su negocio y sus datos. Identifique casos extremos y sesgos que los modelos de IA podrían no reconocer y proporcione ejemplos para conjuntos de entrenamiento.
- Asegúrese de que los datos confidenciales estén categorizados y cifrados antes de entrenar modelos relevantes.
- Si corresponde, emplee soluciones basadas en inteligencia artificial para identificar problemas de seguridad a escala.
Todos desempeñamos un papel en la innovación consciente
La IA debería potenciar el pensamiento y la toma de decisiones humanos, no su reemplazo. Si bien su potencial para aumentar la eficiencia es inmenso, su uso no controlado puede generar dificultades y perjudicar a los consumidores y las empresas.
Así como no se permitiría que un niño cruzara una calle muy transitada sin supervisión, la IA requiere medidas estrictas para cumplir con los estándares de privacidad y seguridad. Un enfoque consciente y activo para implementar soluciones de IA puede garantizar que evolucionen de manera beneficiosa para todos nosotros.
“Pensamiento basado en datos” está escrito por miembros de la comunidad de medios y contiene nuevas suggestions sobre la revolución electronic en los medios.
Seguir pensar medio y AdExchanger es LinkedIn.
Para obtener más artículos sobre Dennis Buchheim, haga clic aquí.