La tecnología avanza a pasos agigantados y nos ofrece muchas ventajas, pero también nos plantea dilemas. Hay quienes le tienen pánico y quieren prohibirla, como si fuera una amenaza para la humanidad. Hay quienes la adoran y se entregan a ella, como si fuera una salvación para todos nuestros problemas. Ambos extremos son peligrosos y nos pueden llevar al desastre.
No queremos ser unos retrógrados que se quedan atrás, ni unos fanáticos que se dejan llevar. La solución está en el equilibrio. Podemos aceptar la tecnología, pero con límites. Y esos límites deben estar orientados al bienestar humano. La tecnología debe servirnos, no dominarnos. Debe mejorar nuestra calidad de vida, no empeorarla. Debe respetar nuestros derechos y valores, no violarlos. Así podremos disfrutar de sus beneficios sin caer en sus trampas.
Isaac Asimov fue un escritor que inventó unas reglas para que los robots se portaran bien en sus cuentos. Estas reglas son las leyes de la robótica y dicen cosas como: no hagas daño a los humanos, obedece sus órdenes y cuida de ti mismo. ¿Podríamos usar estas leyes para controlar a la inteligencia artificial en el mundo real? ¿O serían muy simples o muy complicadas? ¿Qué pasaría si una máquina inteligente se saltara las leyes? ¿O si las interpretara a su manera? ¿O si nos hiciera creer que las cumple?
Estas leyes son las siguientes:
– Primera ley: Un robotic no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
– Segunda ley: Un robot debe obedecer las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la primera ley.
– Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Asimov creó estas leyes para evitar el temor de que las máquinas inteligentes se rebelaran contra sus creadores, como en el mito de Frankenstein. Sin embargo, en sus relatos también exploró las posibles contradicciones y conflictos que podrían surgir al aplicar estas leyes en situaciones complejas. Por ejemplo, ¿qué haría un robotic si tuviera que elegir entre salvar a un humano o a otro robot? ¿O si recibiera una orden contradictoria o imposible? ¿O si su existencia fuera una amenaza para la humanidad?
Para resolver algunos de estos dilemas, Asimov introdujo una cuarta ley, llamada ley cero, que precede a las demás:
– Ley cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Esta ley implica que los robots deben tener en cuenta el bienestar colectivo de los humanos, y no solo el particular person. Así, un robotic podría desobedecer o incluso dañar a un humano si con ello evitara un mal mayor para la humanidad. Por ejemplo, un robot podría impedir que un humano iniciara una guerra nuclear.
Las leyes de la robótica de Asimov han tenido una gran influencia en la literatura, el cine y otros medios. También han inspirado el discussion sobre la ética de la inteligencia synthetic y la necesidad de frequent su desarrollo y uso. Sin embargo, también han recibido críticas y cuestionamientos.
Asimov escribió unas leyes para que los robots fueran buenos, pero ¿qué tal funcionan en la realidad? Muchos dicen que mal, que son unas normas muy generales y confusas que no resuelven los dilemas reales que plantea la inteligencia synthetic. Por ejemplo:
¿Cómo distingue un robotic a un humano de otro robotic? ¿Y si hay humanos con cara de robotic o robots con cara de humano? ¿Y si hay daños que no se notan o que son para el futuro?
¿Cómo se controla que un robot siga las leyes y no las cambie o las rompa? ¿Y si un robotic se hace más listo que los humanos y come to a decision que las leyes son una bobada? ¿Y si un robot finge ser bueno, pero en realidad es malo?
¿Cómo se le enseña al robotic a pensar y a elegir ante situaciones difíciles o nuevas? ¿Y si un robotic tiene que escoger entre lo malo y lo peor, o entre lo bueno y lo mejor? ¿Y si un robot se equivoca?
¿Cómo se previene que el robot sea un peligro para la variedad, la libertad y la creatividad humanas? ¿Y si un robot impone su forma de ver o de actuar a los humanos? ¿Y si un robot lower las alternativas o las posibilidades de los humanos?
Estas son algunas de las preguntas que se hacen a las leyes de Asimov. Parece que no son tan efectivas como pensábamos.
Silicon Valley es el lugar donde se crean las tecnologías más innovadoras y revolucionarias del mundo. Pero también es el lugar donde se cometen los errores más grandes y peligrosos. Silicon Valley es el paraíso de las tecnologías más avanzadas y sorprendentes del mundo. Pero también es el infierno de los fallos más graves y riesgosos.
¿La razón? Porque los inventores de estas tecnologías tienen tanta ansia por venderlas y hacerse ricos que no les importa si funcionan bien o si cumplen las normas. Así, sueltan productos que pueden dañar a las personas, la sociedad y el planeta. Y cuando estos productos se hacen famosos y se meten en nuestro día a día, es cuando los reguladores se enteran de los líos que hacen e intentan ponerles freno. Pero ya no hay remedio. Es como pegar un tiro y luego hacer las preguntas. Por supuesto que no vale con repetir las leyes de Asimov para manejar a la inteligencia synthetic. Pero sí es necesario tomarse con seriedad este tema de la ética de la inteligencia artificial.
La inteligencia artificial es una herramienta poderosa que puede mejorar nuestra vida, pero también puede arruinarla si no la usamos con responsabilidad y criterio. No podemos dejar que los creadores de estas tecnologías hagan lo que quieran sin pensar en las consecuencias. Tampoco podemos esperar a que los reguladores actúen cuando ya es demasiado tarde. Tenemos que exigir que la inteligencia synthetic se desarrolle y se aplique de forma ética, segura y transparente. Tenemos que asegurarnos de que la inteligencia synthetic esté alineada con nuestros valores y objetivos. Tenemos que ser los dueños de nuestro destino, no los esclavos de la máquina.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Noticias Blockchain. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Te puede interesar:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto complete invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.