El cofundador de Ethereum, Vitalik Buterin, dijo que la criptocomunidad tenía reservas sobre Sam Bankman-Fried y FTX desde el principio, a pesar del alto perfil de Bankman-Fried en los principales medios de comunicación como líder de la industria.

«Creo que mucha gente tiene la thought errónea de que todos respetaban profundamente a Sam y que tomó por sorpresa a todo el ecosistema», dijo Buterin en una entrevista de podcast con Sriram Krishnan y Aarthi Ramamurthy. «Creo que es cierto que nadie esperaba una explosión literal de $ 8 mil millones, pero si miras a personas influyentes de Ethereum como Anthony Sassano, muchos de ellos le faltaron el respeto a él y a FTX desde el principio».

Krishnan y Aarthi entrevistan a fundadores, directores ejecutivos y cineastas en su podcast homónimo, que presentó a Buterin el mes pasado.

Buterin continuó explicando que muchos en el ecosistema criptográfico sospechaban de Bankman-Fried porque parecía incapaz de articular una visión coherente de por qué la tecnología de las criptomonedas period valiosa.

«Simplemente no pudo articular una visión de por qué las criptomonedas eran buenas, simplemente las vio como una pura oportunidad comercial», recordó Buterin. «Es como, ‘Oh, hey, crypto es esto en lo que puedes ganar dinero'».

Buterin comparó la perspectiva de Bankman-Fried con los valores cypherpunk y los objetivos de descentralización que animaron inicialmente a Bitcoin, Ethereum y otros proyectos de cadena de bloques, y dijo que el empresario caído en desgracia simplemente estaba «regurgitando las perspectivas de otras personas de ‘la desintermediación es buena, crear más mercados abiertos es bueno’, cosas que han dicho los influencers durante años».

«Simplemente, creo, nunca impactó a la comunidad como una persona que creía profundamente en ella», dijo. «Eso, más que cualquier otra cosa, podría ser realmente la causa de la desconfianza que ya existía».

El fundador de Ethereum también se refirió al rápido progreso de los sistemas de inteligencia synthetic como ChatGPT, expresando optimismo sobre su potencial para aumentar la creatividad humana en lugar de reemplazar por completo los trabajos y talentos humanos.

«Creo que uno de los aspectos positivos de esto es que creo que es un buen ejemplo de cómo, en lugar de que la IA mate al 30% de el empleos, lo que sería catastrófico y horrible, es como si la IA estuviera matando al 30 % de su trabajo, que en realidad es un gran ahorro de tiempo», dijo Buterin.

Reconoció que se perderán más trabajos a medida que la IA se acerque a las capacidades humanas completas, pero que por ahora, la IA es algo que debe adoptarse.

«En esta etapa uno, la última sección del sprint a la IA de nivel humano, ese aspecto de las cosas es interesante: está empoderando a las personas con más que reemplazar a las personas, al menos hasta ahora», dijo Buterin.

También sugirió que las poderosas herramientas de inteligencia artificial, como los generadores de imágenes, podrían ayudar a los creadores individuales a hacer películas y otras obras artísticas sin la necesidad de una costosa producción al estilo de Hollywood.

«Lo que sucede que no queremos ver es que los artistas sean reemplazados lo que quiero ver es un autor, en lugar de solo poder escribir una novela, también poder hacer una película personalmente», dijo Buterin. . «Me gustaría ver que el costo de hacer una película baje de $100,000 para una persona con básicamente solo su creatividad y un par de meses con una plataforma de inteligencia synthetic».

En su opinión, interrumpir Hollywood sería algo bueno.

«Nos alejamos de todos estos remixes horribles, como Marvel lucha contra King Kong con un toque de Star Trek vs . Star Wars en el lateral», dijo. «Llegue a historias reales reales que reflejen los valores de diferentes personas».

«Esa mejora de la creatividad personal existente, eso me emociona», dijo Buterin a sus anfitriones.

De hecho, el fundador de Ethereum posicionó a la IA como uno de los desarrollos más significativos de toda la historia.

«Esta transición de IA de humano a sobrehumano, ese nivel de transición, diría que solo ha ocurrido básicamente tres o cuatro veces en la historia de la Tierra», dijo.

Pero Buterin también reconoció la necesidad de más investigación y, potencialmente, alguna regulación limitada en torno a la IA avanzada para abordar los posibles riesgos en el futuro. Hizo hincapié en que cualquier regla debe tener un objetivo limitado en lugar de prohibiciones radicales que obstaculizarían la innovación.

«Veo estos argumentos realmente convincentes de la gente de riesgo de IA. Pero entonces, tenemos una larga historia de más de 100 años de personas que predicen todo tipo de consecuencias realmente terribles para la próxima ola de tecnología. Lo que sucedió, una y otra vez. una vez más, durante siglos, es que nos adaptamos».

Nota del editor: este artículo fue escrito con la ayuda de AI. Editado y comprobado por Ryan Ozawa.

Share.
Leave A Reply