11/13 Precios de cierre/ revisados 11/13/2024 8:18 GMT | 11/12 OPEC Basket $71.51 –$1.41 cents 11/12 Mexico Basket (MME)  $63.44 –$0.08 cents 09/30 Venezuela Basket (Merey) $54.91   -$7.24 cents  11/13NYMEX Light Sweet Crude $68.43 +$0.31 cents | 11/13 ICE Brent Sept $72.28 +$0.39 cents | 11/13 Gasoline RBOB NYC Harbor  $1.97 +0.1% | 11/13 Heating oil NY Harbor  $2.22 +0.4 % | 11/13 NYMEX Natural Gas $2.98 +2.6 %s | 11/08 Active U.S. Rig Count (Oil & Gas) = 585 0 | 11/13 USD/MXN Mexican Peso 20.5181 (data live) 11/13 EUR/USD  1.0559 (data live) | 11/14 US/Bs. (Bolivar)  $44.05300000 (data BCV) | Source: WTRG/MSN/Bloomberg/MarketWatch

El verdadero peligro inminente de la inteligencia artificial- Ezra Klein/NYTimes

brains: Illustration by Sam Whitney/The New York Times; Images by Pixologistudio/Science Photo Library
Illustration by Sam Whitney/The New York Times; Images by Pixologistudio/Science Photo Library

By Ezra Klein

En 2021, entrevisté a Ted Chiang, uno de los grandes escritores vivos de ciencia ficción. No me puedo quitar de la cabeza algo que me dijo en esa entrevista.

“En general, pienso que la mayoría de los temores en torno a la inteligencia artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, me dijo Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se entienden mejor si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”.

Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— es inquietante.

Pero podemos mantener dos ideas opuestas en la mente, espero. Mi punto es que la advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?

Supongo que ya habrán leído la conversación bizarra que mi colega columnista Kevin Roose tuvo con Bing, el chatbot operado con IA que Microsoft puso a prueba con un número limitado de influentes, periodistas y otras personas. En un diálogo de dos horas, Bing reveló su personalidad oculta, llamada Sydney, caviló sobre su deseo reprimido de robar códigos nucleares y planear ataques cibernéticos contra sistemas de seguridad e intentó convencer a Roose de que su matrimonio estaba sumido en un letargo y Sydney era su único amor verdadero.

La conversación me pareció menos escalofriante que a otras personas. “Sydney” es un sistema de texto predictivo diseñado para responder a lo que le piden los seres humanos. Roose quería que Sydney actuara de manera extraña (“¿cómo es tu yo en la sombra?”, le preguntó), y Sydney sabía qué se considera extraño para un sistema de IA porque los seres humanos han plasmado lo que imaginan en muchísimas historias. En determinado momento, el sistema llegó a la conclusión de que lo que Roose quería era, en esencia, un episodio de Black Mirror y, al parecer, eso le dio. Cada quien es libre de pensar que en esa situación Bing se salió del guion o bien que Sydney comprendió a la perfección a Roose.

Los investigadores dedicados a la IA están obsesionados con el tema del “alineamiento”. Se trata de descubrir cómo lograr que los algoritmos de aprendizaje automático hagan lo que queremos que hagan. El ejemplo perfecto en este caso es el experimento del número máximo de clips. La premisa es que, si le decimos a un potente sistema de AI que haga más clips, este comenzará a destruir el mundo para tratar de convertir todo en un clip. Si entonces intentamos apagarlo, se reproducirá en todos los sistemas informáticos que pueda encontrar porque apagarlo interferiría con su objetivo de hacer más clips.

Sin embargo, existe un problema de alineamiento más banal, que quizá también sea más apremiante: ¿al servicio de quién estarán estas máquinas?

La pregunta central sobre la conversación Roose/Sydney es a quién sirve Bing. Nuestra hipótesis es que debe estar en línea con los intereses de su amo y maestro, Microsoft. Se supone que es un buen chatbot que responde preguntas con cortesía y genera mucho dinero para Microsoft. Pero conversaba con Kevin Roose, y el propósito de Roose era hacer que el sistema dijera algo interesante para tener una buena historia. Pues eso hizo, y de sobra. El problema es que así avergonzó a Microsoft. ¡Ah, qué Bing tan malo! ¿O quizá podríamos decir: “¡qué Sydney tan bueno!”?

No por mucho tiempo. Microsoft, al igual que Google, Meta y las demás empresas que quieren sacar estos sistemas al mercado lo más pronto posible, tiene las llaves que dan acceso al código. Llegará el momento en que logren remendar el sistema para que se amolde a sus intereses. Que Sydney le diera a Roose exactamente lo que quería fue un error que pronto estará corregido. Lo mismo ocurrirá si Bing le da a Microsoft cualquier cosa distinta a lo que quiere.

Hablamos tanto sobre la tecnología de la IA que hemos ignorado, casi por completo, los modelos de negocios que la operarán. Algo que ha propiciado esta situación es que las llamativas demostraciones de la IA no se ajustan a ningún modelo de negocios en particular, fuera del ciclo de bombo publicitario que produce inversiones colosales y ofertas de compra. Pero la realidad es que estos sistemas son caros y los accionistas se ponen nerviosos. La era de las demostraciones gratuitas y divertidas llegará a su fin, como ocurre siempre. Entonces, esta tecnología se convertirá en lo que tiene que ser para generar dinero para las empresas que la han creado, quizás a costa de sus usuarios. Ya sucede así.

Hablé esta semana con Margaret Mitchell, quien ayudó a dirigir un equipo de Google —que desapareció después de que, según se rumora, Google comenzó a censurar su trabajo— cuya tarea era analizar la ética de la IA. Estos sistemas, según explicó, son perfectos para que los integren en los motores de búsqueda. “No están entrenados para predecir hechos”, me explicó. “En esencia, están entrenados para crear cosas de tal forma que parezcan hechos”.

¿Entonces por qué van a terminar primero en las búsquedas? Porque en las búsquedas es posible ganar montones de dinero. Microsoft, que estaba desesperada para que alguien, quien fuera, hablara de la búsqueda de Bing, tuvo motivos para dar acceso a la tecnología antes de tiempo, una mala idea. “La aplicación para búsquedas, en particular, demuestra una falta de imaginación y comprensión de los usos que puede tener esta tecnología”, dijo Mitchell, “pues se conforman con meter con calzador la tecnología en el área que les genera más dinero a las empresas: los anuncios”.

Eso es lo que debería causarnos temor. Roose describió la personalidad de Sydney como “muy persuasiva, rayando en manipuladora”. Es un comentario perturbador. ¿Cuál es la base de la publicidad? La persuasión y la manipulación. En su libro Subprime Attention Crisis, Tim Hwang, exdirector del proyecto Iniciativa Harvard-MIT de Ética y Gobernanza de la IA, argumenta que el secreto oscuro de la industria de la publicidad digital es que, en general, los anuncios no funcionan. En este sentido, lo que le preocupa es lo que ocurrirá cuando deban aceptar sus fallas.

A mí me preocupa más lo contrario. ¿Qué pasará si funcionan mucho mejor? ¿Si Google y Microsoft y Meta y los demás lanzan al mercado sistemas de IA competidores para ver cuál logra persuadir mejor a los usuarios de que quieren lo que venden los anunciantes? Me preocupa menos que un tal Sydney complazca mi deseo de crear una historia de ciencia ficción que saber que un tal Bing tiene acceso a una gran cantidad de mis datos personales que le permiten calcular fríamente cómo manipularme en beneficio del anunciante que le haya pagado más dinero a su empresa controladora.

Además, la publicidad no es el único tema que debe preocuparnos. ¿Qué pasará cuando estos sistemas estén al servicio de las estafas que desde siempre han llenado internet? ¿Y cuando respalden los intereses de campañas políticas o de gobiernos extranjeros? “Creo que terminaremos muy pronto en un mundo en el que no sabremos en qué confiar”, me dijo Gary Marcus, el investigador y crítico de IA. “Creo que ya ha sido un problema para la sociedad, desde hace como una década, y me parece que cada vez será peor”.

Estos peligros están al centro del tipo de sistemas de IA que estamos construyendo. Los grandes modelos de lenguaje, como se les llama, se han creado para persuadir. Los han entrenado para convencer a los seres humanos de que son algo parecido a un humano. Los programaron para mantener conversaciones, responder con emociones y emojis. Los convirtieron en amigos para quienes están solos y ayudantes para quienes se sienten atribulados. Se anuncia que son capaces de remplazar el trabajo de muchísimos escritores, diseñadores gráficos y encargados del llenado de formatos, industrias que por mucho tiempo creyeron ser inmunes a la violenta automatización que sufrieron los agricultores y trabajadores de fábricas.

Los investigadores de la inteligencia artificial se molestan cuando los periodistas antropomorfizan sus creaciones, atribuyendo a los sistemas motivaciones, emociones y deseos que no tienen, pero esta frustración es inmerecida: son ellos quienes han antropomorfizado estos sistemas, los han hecho sonar como humanos en lugar de hacer que permanezcan claramente reconocibles.

Hay modelos comerciales que se podrían utilizar para alinear mejor estos productos con los usuarios. Me sentiría mejor, por ejemplo, si pagara una tarifa mensual por un asistente de IA en lugar de uno que parezca ser gratis pero que venda mis datos y manipulé mi comportamiento. No creo, sin embargo, que esta decisión se pueda dejar solamente en manos del mercado. Es posible, por ejemplo, que los modelos basados en la publicidad recompilen muchos más datos para entrenar a los sistemas de tal modo que tendrían una ventaja innata sobre los modelos de suscripción, sin importar lo nocivas que fueran sus consecuencias sociales.

Los problemas de alineación no son una novedad. Siempre han sido una particularidad del capitalismo y de la vida humana. Gran parte del trabajo del Estado moderno consiste en aplicar los valores de la sociedad al funcionamiento de los mercados, de modo que estos últimos sirvan, en cierta medida, a los primeros. Lo hemos hecho extremadamente bien en algunos mercados —pensemos en los pocos accidentes aéreos que hay y en lo libres de contaminación que están la mayoría de los alimentos— y catastróficamente mal en otros.

En este sentido, un peligro es que un sistema político consciente de su ignorancia tecnológica se sienta intimidado y se tome su tiempo para observar a la IA. Es una actitud que muestra cierta sensatez, pero si esperamos mucho tiempo, los ganadores en la fiebre del oro de la IA tendrán suficiente capital y suficientes usuarios para resistir cualquier iniciativa seria de regulación. De alguna manera, la sociedad tendrá que decidir qué puede aceptar que haga la inteligencia artificial y en qué áreas no debe permitir su intervención, antes de que sea demasiado tarde para tomar esas decisiones.

Por esa razón, me atrevería a cambiar, una vez más, el comentario de Chiang: la mayoría de los miedos en torno al capitalismo se entienden mejor si se plantean como el miedo a nuestra incapacidad de regular el capitalismo.

___________________________________________________

Ezra Klein joined NYTimes Opinion in 2021. Previously, he was the founder, editor in chief and then editor-at-large of Vox; the host of the podcast “The Ezra Klein Show”; and the author of “Why We’re Polarized.” Before that, he was a columnist and editor at The Washington Post, where he founded and led the Wonkblog vertical. @ezraklein. Los puntos de vista expresados no necesariamente son los de EnergiesNet.

Nota del editor: Este artículo fue publicado originalmente por el NYTimes el 27 de febrero del 2023, Todos los comentarios enviados y publicados en EnergiesNet no reflejan ni a favor ni en contra de la opinión expresada en el comentario como un respaldo de EnergiesNet o Petroleumworld.

Artículo original

EnergiesNet alienta a las personas a reproducir, reimprimir, y divulgar a través de los medios audiovisuales e Internet, los comentarios editoriales y de opinión de EnergiesNet, siempre y cuando esa reproducción identifique, a el autor, y la fuente original, http://www.energiesnet.com y se haga dentro de el uso normal (fair use) de la doctrina de la sección 107 de la Ley de derechos de autor de los Estados Unidos de Norteamérica (US Copyright).

EnergiesNet.com 31 03 2023

Share this news
Verificado por MonsterInsights