sin heno nada nuevo respeto por los «chatbots» que su capacidad para mantener una conversación en lenguaje natural, para escuchar la intención básica de un usuario y dar respuestas basadas en normas y datos preestablecidos. Pero la capacidad de estos chatbots ha aumentado drásticamente en los últimos meses, lo que ha creado gran preocupación y pánico en muchos círculos.

Mucho se ha dicho sobre que los chatbots auguran el fin de los ensayos tradicionales de los estudiantes. Pero una cuestión que justifica prestar más atención es la forma en que los chatbots no pueden responder cuando los interlocutores humanos hacen comentarios agresivos, sexistas o racistas pour incitar al bot a contestar con sus propias fantasías groseras. ¿Las IA deben estar programadas para responder en el mismo nivel de las preguntas que se les plantan?

Si se decide que algún tipo de regulación es oportuno, debemos determinar qué tan lejos debería llegar la censura. ¿Estarán prohibidas las posturas políticas que algunas cohortes consideran “ofensivas”?

¿Qué pasa con las expresiones de solidaridad con los palestinos de Cisjordania o la afirmación de que Israel es un estado con apartheid (que el ex presidente estadounidense Jimmy Carter una vez puso en el título de un libro)? ¿Estarán prohibidas por ser «antisemitas»?




ChatGPT. Foto: Shutterstock

El problema no se acaba aquí. Como advertimos al artista y escritor James Bridle, las nuevas IAs se «basan en la propiación indiscriminada de la cultura existente», y el creer que son «realmente expertas o significativas es algo activamente peligroso». Por lo tanto, debemos ser muy cautelosos con los nuevos generadores de imágenes de IA.

“En su intento de comprender y reproducir la totalidad de la cultura visual humana”, observó Bridle, “parecen haber recreado también nuestros miedos más oscuros. Quizá esto sea sólo una señal de que estos sistemas son muy capaces para imitar la conciencia humana, llegando al terror incluso que acecha en las profundidades de la existencia: nuestro miedo a la suciedad, la muerte y la corrupción”.

¿Pero qué tan capaz son las nuevas IA de aproximarse a la conciencia humana? Véase el caso del bar que hace poco publicitó un trago especial en los siguientes términos: «¡Compre una cerveza por el precio de dos y reciba una segunda cerveza totalmente gratis!».

Para cualquier ser humano, esto obviamente es un chiste. Se reformuló el clásico «compre una, reciba una» para que se autocancele. es una expresión de cinismo que será apreciada como sinceridad cómica, todo para aumentar las ventas. ¿Un chatbot escucha algo de esto?

Inteligencia artificial.  /Shutterstock


Inteligencia artificial. /Shutterstock

“Coger” presentó un problema parecido. Si bien se designa algo que a la mayoría de la gente le gusta hacer (copular), a menudo también adquiere un valor negativo (“¡Nos cogieron!”). El lenguaje y la realidad son complicados. ¿La IA está preparada para discernir estas diferencias?

En su ensayo de 1805 «De la formación gradual de los pensamientos en el proceso del habla» (publicado por primera vez en forma postuma en 1878), el poeta alemán Heinrich von Kleist invita al conocido consejo de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de que va a decir: “If, por lo tanto, se expresa un pensamiento de manera confusa, de ningún modo se sigue que ese pensamiento fue concebido de manera confusa. Al contrario, es muy posible que las ideas que son expresadas del modo más confuso sean las que fueron pensadas más claramente”.

La relación entre el lenguaje y el pensamiento es extraordinariamente complicada.

En un pasaje de uno de los discursos de Stalin a commenzos de la década de 1930, él propone medidas radicales para “detectar y combatir sans piedad incluso a que se oponen a la colectivización sólo en sus pensamientos… sí, eso quiero decir, debemos combatir incluso los pensamientos de las personas”. Uno puede decir con certeza que ese pasaje no había sido preparado por anticipado. Tras haber embalado con su discurso, Stalin de inmediato se dio cuenta de lo que acababa de cir. Pero, en lugar de dar marcha atrás, decidió insistir en la hipérbole.

como mas tarde expreso jacques lacan, ese fue un caso de aparición de la verdad por sorpresa mediante el acto de la enunciación. Luis Althusser identificó un fenómeno similar en la interacción entre el precio y la sorpresa. Alguien que de repente comprenda (“tomado”) una idea se sorprenderá de lo que ha logrado. Reitero, ¿algún chatbot puede hacer esto?

"paraíso desordenado"de Slavoj Zizek.


«Cielo desordenado» de Slavoj Zizek.

tonto artificial

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente «estúpidos». No es que sean ingeniosos (y no capten la ironía y la reflexividad); es que no son lo suficientemente ingeniosos (y no se dan cuenta cuándo la ingenuidad enmascara la perspicacia). El verdadero peligro, entonces, no es que la gente tome un chatbot por una persona real; ¿Te comunicas con chatbots? haga que las personas reales hablen como chatbots, pasando por alto all los matices y las ironías, diciendo obsesivamente y con precision lo que creen que quieren decir.

Cuando yo era joven, un amigo fue a ver a un psicoanalista para que lo tratara tras una experiencia traumática. La idea de que este amigo tenía sobre lo que los analistas esperan de sus pacientes será un lugar común y entonces pasó toda la primera sesión haciendo falsas «asociaciones libres» sobre cómo odiaba a su padre y quería verlo muerto.

La reacción del analista fue ingeniosa: convertir una postura ingenua “pre-freudiana” y le reprochó a mi amigo que no respetara a su padre (“¿Cómo puede hablar así de la persona que ha hecho de usted lo que es?”). Esta ingeniosidad fingida transmitió un claro mensaje: No creo en sus «asociaciones» falsas. ¿Un chatbot podría captar ese subtexto?

Muy probablemente no lo haría, porque es como la interpretación de Rowan Williams sobre el príncipe Myshkin en El idiota por Dostoievski. De acuerdo con la lectura tradicional, Myshkin, «el idiota», es un hombre santo «positivamente bueno y hermoso» que se ha elevado a un aislamiento demente por las ásperas brutalidades y pasiones del mundo real. Pero en la relectura radical de Williams, Myshkin representó el ojo de la tormenta: por bueno y santo que sea, es quien desencadena el caos y la muerte que presencia debido a su papel en la compleja red de relaciones que lo rodea.

No es sólo que Myshkin se un bobalicón ingenioso. Es que su tipo particular de necesidad hace que no se consciente de los efectos desastrosos que tiene en los demás. Es una persona chata que literalmente habla como un chatbot. Su «bondad» estriba en el hecho de que, al igual que un chatbot, reacciona a los defios sin ironía, diciendo perogrulladas carentes de toda reflexividad, tomando todo de manera literal y recurriendo a un autocompletar mental en lugar de una auténtica formación de ideas . Por eso, los nuevos chatbots se levantarán muy bien con la ideología de todos los colores, desde el público “despertado” hasta los nacionalistas del “Make America Great Again” que prefieren quedarse dormidos.

*Slavoj Žižek, Profesor de Flosofía en la European Graduate School, Director Internacional del Instituto Birkbeck de Humanidades de la Universidad de Londres y autor de «Heaven in Disorder» (OR Books, 2021).

Copyright: Project Syndicate, 2023. Desde Liubliana, Estonia

Traducción: Elisa Carnelli

computadora

Mira también