Liz Reid, vicepresidenta de búsqueda de Google, supuestamente les dijo a los empleados que no debían permitir que el riesgo les impidiera lanzar funciones de inteligencia artificial.
Anadolu/Getty

  • Google apareció en los titulares con algunas de sus descripciones generales de IA e imágenes generadas por IA inexactas.
  • Según se informa, el vicepresidente de búsqueda de Google dijo en una reunión que no debería dejar de correr riesgos debido a errores.
  • Los expertos opinaron sobre la estrategia de Google y los riesgos que podrían surgir.

Todas las grandes empresas tecnológicas están compitiendo para ampliar sus capacidades de IA y lanzar nuevos productos, pero Google sigue apareciendo en los titulares sobre errores de IA que se vuelven virales.

Poco después de lanzar su función AI Overviews, que proporciona resúmenes generados por AI para algunas consultas de búsqueda en la parte superior de la página, Internet comenzó a hablar de que el motor de búsqueda recomendaba comer pizza con pegamento o consumir piedras.

A principios de este año, lanzó su herramienta de generación de imágenes en Gemini y causó revuelo cuando el chatbot recreó de manera inexacta imágenes de personajes históricos. Google reconoció el problema y detuvo la función.

Sin embargo, parece que Google no va a pisar el freno en el corto plazo, incluso con los errores de alto perfil.

La vicepresidenta de búsqueda de Google, Liz Reid, abordó el reciente fiasco del pegamento para pizza y de comer piedras en una reunión reciente y aprovechó la oportunidad para reafirmar la estrategia de inteligencia artificial de la compañía, según un audio filtrado obtenido por CNBC.

«Es importante que no retengamos funciones sólo porque pueda haber problemas ocasionales», supuestamente dijo Reid en la reunión.

El vicepresidente dijo en la reunión que Google debería abordar los problemas cuando se descubran y «actuar con urgencia», pero eso no significa que «no deba correr riesgos», informó CNBC.

Lorenzo Thione, inversor en IA y socio director del grupo de capital riesgo Gaingels, dijo a Business Insider que, en general, cree que es la decisión correcta sacar a la luz las funciones experimentales. Pero dijo que los usuarios necesitan saber cuándo y cómo pueden confiar en los resultados. Thione dijo que las divulgaciones de productos deben ser diferentes cuando la herramienta que se utiliza es el editor, el curador y el moderador.

Google señala que «la IA generativa es experimental» en las descripciones generales de IA. También tiene una guía de seguridad para desarrolladores que establece que las herramientas de IA generativa «a veces pueden generar resultados inesperados, como resultados inexactos, sesgados u ofensivos».

Google está lejos de ser la única empresa que se da cuenta de los riesgos de los productos de IA generativa. Tim Cook dijo que Apple Intelligence seguramente se equivocará en algunas cosas, aunque no espera que sea frecuente. Microsoft también dijo el jueves que pospondría el lanzamiento de una herramienta de inteligencia artificial que debería estar disponible cuando se envíen sus PC CoPilot después de que surgieran preocupaciones sobre la privacidad.

Pero el director ejecutivo de la plataforma de inteligencia artificial Copyleaks, Alon Yamin, dijo a BI que al lanzar funciones a gran escala en la parte superior de la Búsqueda de Google, la empresa está haciendo que esos errores sean particularmente visibles.

La alternativa es ser más gradual en el lanzamiento de funciones y no colocarlas en el centro si no están completamente listas, dijo.

Yamin dijo que tiene sentido que la compañía quiera lanzar productos más rápido debido a las conversaciones sobre que Google está atrasado en la carrera de la IA. Pero si bien la IA generativa no es totalmente infalible en este momento, es importante equilibrar el tiempo con la innovación y la precisión, afirmó Yamin.

Reid escribió anteriormente en una publicación de blog que Google construye «barandillas de calidad y seguridad en estas experiencias» y las prueba exhaustivamente antes del lanzamiento. Pero Reid dijo en la reunión general que Google «no siempre encontrará todo», según el informe de CNBC.

Vale la pena señalar que estos errores no parecieron surgir con frecuencia. Un portavoz de Google dijo que la «gran mayoría» de los resultados son precisos y que la compañía encontró una violación de la política en «menos de una de cada 7 millones de consultas únicas con descripciones generales de IA».

Pero si bien la sugerencia de pegar queso en la pizza y comer piedras puede ser un error menor, Yamin dijo que podrían surgir riesgos más graves en torno a la privacidad, la seguridad y los derechos de autor, y cuanto más rápido se trabaje, mayor será el riesgo.

¿Tienes algún consejo sobre Google? Comuníquese con el periodista desde un correo electrónico no laboral a aaltchek@insider.com.

Share.
Leave A Reply