El espectacular colapso de la firma de comercio de criptomonedas FTX ha planteado una serie de preguntas urgentes. ¿Por qué el fundador, Sam Bankman-Fried, obtuvo una cobertura mediática tan aduladora? ¿Sus clientes recuperarán sus criptos? Ah, y ¿deberían los filántropos adinerados de los Estados Unidos gastar su dinero en edificios en su alma mater, mosquiteros al otro lado del mundo o en la prevención de catástrofes globales en un futuro lejano?

Esa última pregunta es relevante porque Bankman-Fried fue uno de los mayores patrocinadores financieros y promotores mediáticos del altruismo efectivo, en sus propias palabras, “un campo de investigación y una comunidad práctica que tiene como objetivo encontrar las mejores formas de ayudar a los demás y ponerlos en práctica”. práctica.» EA implica estudiar varios esfuerzos caritativos, descubrir cuáles hacen más bien y dirigir el dinero a ellos. También se ha convertido en una subcultura influyente en el Área de la Bahía, donde los devotos comúnmente se refieren a sí mismos como altruistas efectivos de la misma manera que se describen a sí mismos como izquierdistas o psiconautas.

El hecho de que la cara pública de EA fuera el líder de una camarilla de súper nerds millennials que aparentemente dirigían un esquema Ponzi multimillonario desde un ático en las Bahamas, comprensiblemente, ha contaminado el movimiento. Cualquier cantidad de organizaciones benéficas están fuera de cientos de millones de dólares en donaciones esperadas. Algunos donantes se preguntan si involucrarse con EA en absoluto. “El altruismo efectivo postula que ganar dinero por (casi) cualquier medio necesario está bien porque tú… eres tan brillante que absolutamente deberías tener todo el poder que implican miles de millones de dólares en el banco”, argumenta el columnista de CoinDesk David Z. Morris, un el sentimiento se hizo eco una y otra vez en línea.

Sin embargo, esta crisis también crea una oportunidad. El altruismo efectivo, el movimiento, no es lo mismo que el altruismo efectivo, la práctica de la filantropía financieramente maximalista y rigurosamente basada en datos. Divorciar este último del primero beneficiaría a todos en el planeta.

EA comenzó a fusionarse en los años 2000, cuando los filósofos de Oxford Toby Ord y William MacAskill, junto con Bernadette Young, fundaron Giving What We Can, un grupo cuyos miembros acuerdan «donar una proporción significativa de sus ingresos a organizaciones benéficas rentables». Siguieron otros grupos de expertos y centros de investigación, así como una comunidad en línea activa. El principal punto de partida intelectual del movimiento fue el trabajo del filósofo utilitarista Peter Singer. Podemos ayudarnos unos a otros. Deberíamos ayudarnos unos a otros. Debemos ayudarnos unos a otros, su filosofía instaba. ¿Cómo deberíamos hacerlo? Tanto como podamos, con la mayor eficacia posible. “Combina tanto el corazón como la cabeza”, dijo Singer sobre EA en una charla TED de 2013 ampliamente vista.

EA alienta a todos los que puedan a donar la mayor cantidad posible de su riqueza, ya sea el 10 por ciento de sus ingresos o todo lo que supere una cierta cantidad. De manera más controvertida, sugiere que las personas ganan por el hecho de dar, trabajando, por ejemplo, en Wall Street y regalando el efectivo, en lugar de trabajar duro en un trabajo socialmente responsable pero no remunerado. El mismo MacAskill alentó a Bankman-Fried a ganar millones, lo que lo llevó a ingresar al comercio de alta frecuencia y luego a las criptomonedas. (La ironía es rica: un movimiento dedicado a abordar la pobreza alentó a sus adherentes a volverse lo más ricos posible).

EA sostiene que todas las personas son iguales; por lo tanto, los donantes no deben dar prioridad a las personas que comparten sus intereses, antecedentes o nacionalidad. En términos prácticos, trata de descubrir cómo hacer el mayor bien para el mayor número de personas, luego aconseja a los donantes sobre dónde enviar su dinero.

Este énfasis en los resultados es algo muy bueno, y organizaciones sin fines de lucro como GiveWell y Open Philanthropy han ayudado a que la filantropía de alto costo sea más responsable, transparente y efectiva. Muchas organizaciones benéficas gastan grandes sumas en gastos generales y hacen poco bien. En algunos casos, las organizaciones sin fines de lucro dañan a las comunidades a las que quieren ayudar; la investigación muestra que la ropa estadounidense donada, por ejemplo, perjudica el comercio textil en los países del África subsahariana y sobrellena sus vertederos.

Y muchas de las donaciones benéficas tienen que ver con la arrogancia del donante, en lugar de las necesidades del receptor: obtener un nombre en un gimnasio en una universidad de la Ivy League en lugar de ayudar a los niños que sufren de enfermedades diarreicas en otro continente. Donar un millón de dólares a, digamos, una liga deportiva juvenil en el país en el que crecieron tus abuelos puede parecer algo grandioso. Seguramente sería mejor que comprar un yate para ti. Pero esos dólares harían más bien si se distribuyeran como subvenciones en efectivo a los refugiados o si se gastaran en mosquiteros antipalúdicos. El movimiento EA hizo que mucha gente viera esa lógica y, por lo tanto, comprometiera un estimado de $ 46 mil millones en iniciativas poco atractivas pero importantes.

Sin embargo, el movimiento es insular. Su demografía es muy joven, muy masculina, muy blanca, muy educada y muy privilegiada desde el punto de vista socioeconómico. Mucha gente de EA proviene de la tecnología; muchos también se consideran “racionalistas”, interesados ​​en aplicar el razonamiento bayesiano a todas las situaciones posibles. EA tiene una cultura, y esa cultura es nerd, seria y moral. También es, al menos en mis muchos tratos con la gente de EA, demasiado intelectual, performativo, incluso onanista.

Quizás no sea sorprendente que el enfoque de EA haya pasado de la pobreza a preocupaciones más esotéricas en los últimos años. El movimiento se ha cautivado con algo llamado «largoplacismo», que se reduce a priorizar el futuro lejano, muy lejano. Dejar que miles de niños

Morir hoy por causas prevenibles vinculadas a la pobreza es terrible, por supuesto, pero ¿no sería peor si miles de millones de personas nunca vivieran debido a los estragos de algún arma aún no inventada? Sí, según cierto tipo de lógica utilitaria. Y el dinero ha seguido esa lógica: el mismo Bankman-Fried puso $160 millones en un fondo para abordar, entre otros temas, los peligros de la biología sintética, la promesa de la gobernanza espacial y el daño que la inteligencia artificial podría infligir a la humanidad dentro de muchos años. .

El largoplacismo tiene razón en una cosa: subestimamos el futuro. El mundo sería un lugar mejor hoy si los filántropos hubieran invertido mucho en la preparación para una pandemia o la prevención del calentamiento global hace 30 años. Pero mucho del pensamiento de EA sobre el futuro lejano es fantástico. Algunos a largo plazo, por ejemplo, argumentan que debemos equilibrar la necesidad de abordar el cambio climático ahora con la necesidad de invertir en colonizar el espacio; nos alientan a pensar en una escala de tiempo de mil millones de años.

La debacle de FTX demuestra claramente el problema con este tipo de mentalidad, como ha señalado el economista Tyler Cowen. Nadie en el fondo filantrópico multimillonario de Bankman-Fried parecía darse cuenta de que el riesgo que emanaba de las Bahamas hoy era más apremiante que cualquier cosa que los láseres espaciales pudieran hacer mañana. “Por lo tanto, soy escéptico acerca de su capacidad para predecir el riesgo existencial de manera más general y para sistemas que son mucho más complejos y también mucho más distantes”, escribe Cowen. “Resulta que muchas de las fuentes reales de riesgo existencial se reducen a la arrogancia y la fragilidad e imperfecciones humanas”. De hecho, EA parece haber terminado cometiendo el pecado que pretendía corregir en la filantropía tradicional: se perdió en la vanagloria de sus irresponsables donantes y descuidó los problemas reales del mundo real.

La tarea de hacer efectivo el altruismo es demasiado importante para dejársela a los altruistas efectivos, ni tienen ningún derecho particular sobre ella. Después de todo, a los EA no se les ocurrió la idea de descubrir el mayor rendimiento de su inversión al donar dinero a los pobres del mundo. De hecho, la revolución EA toma prestadas sus técnicas del movimiento «aleatorio» en la economía del desarrollo, que somete las intervenciones políticas a ensayos controlados aleatorios, y de los defensores de las transferencias de efectivo simples como una solución a la pobreza en el Sur global. Todo es, en parte, un ejercicio de cambio de marca.

La caída de Bankman-Fried debería desencadenar otro cambio de marca y una clasificación de lo bueno de EA de lo malo. ¿Alentando a la gente a regalar su dinero? Excelente. ¿Convertirse en multimillonario para regalar su dinero? Una idea terrible. ¿Hacer que algunos de los hombres blancos más ricos del mundo se preocupen por los pobres del mundo? Fantástico. ¿Convencer a esos mismos tipos de que ellos saben mejor cómo cuidar a toda la humanidad? Señor ayúdanos. Un equipo de culto de autopromotores del mundo de la tecnología no debería ser la cara pública de hacer que las organizaciones benéficas rindan cuentas y sean efectivas. No los dejemos.



Enlace Fuente

Share.
Leave A Reply