Zoë Schiffer: Oh, vaya.
Leah Feiger: Sí, exactamente. Quien ya tiene la oreja de Trump. Se ha extendido. Y entonces la gente fue a X Grok y se dijeron a sí mismas: “Grok, ¿qué es?” ¿Y qué les dijo Grok? No, no. Grok dijo que no eran imágenes de la demostración en Los Ángeles. Dijo que vinieron de Afganistán.
Zoë Schiffer: Oh. Grok, no.
Leah Feiger: Se dijeron a sí mismos: “No hay apoyo creíble. Esta es una mala atribución”. Fue realmente malo. Fue muy, muy malo. Y luego hubo otra situación en la que otra pareja de personas compartieron estas fotos con Chatgpt, y Chatgpt también fue como: “Sí, es Afganistán. Esto no es correcto, y esto, y esto”. No es genial.
Zoë Schiffer: Quiero decir, no comience este momento por venir después de que muchas de estas plataformas hayan desmantelado sistemáticamente sus programas para verificar los hechos, decidieron dejar deliberadamente mucho más contenido. Y luego agrega chatbots a la mezcla que, a pesar de todos sus usos, y creo que pueden ser muy útiles, son increíblemente seguros. Cuando hacen alucinos, cuando se estropean, lo hacen de una manera muy convincente. No me verás aquí defendiendo la investigación de Google. Basura absoluta, pesadilla, pero es un poco más claro cuando se pierde, cuando estás en un blog aleatorio y no creíble que cuando Grok te dice con total confianza que ve una foto de Afganistán cuando no lo estás.
Leah Feiger: Es realmente preocupante. Quiero decir, es increíble. Es completamente increíble, pero con el fanfaron de la fraternidad más borracha que desafortunadamente estuviste atrapado durante una fiesta en tu vida.
Zoë Schiffer: Pesadilla. Pesadilla. Sí.
Leah Feiger: Son como “No, no, no. Estoy seguro. Nunca he estado tan seguro de mi vida”.
Zoë Schiffer: Absolutamente. Quiero decir, ok, entonces, ¿por qué los chatbots dan estas respuestas incorrectas con tanta confianza? ¿Por qué no vemos decir: “Bueno, no lo sé, así que tal vez deberías consultar en otro lugar? Aquí hay algunos lugares creíbles para buscar esta respuesta y esta información”.
Leah Feiger: Porque no hacen eso. No admiten que no lo saben, lo cual es realmente salvaje para mí. De hecho, hubo muchos estudios sobre este tema, y en un estudio reciente de las herramientas de investigación de IA en el Centro de Toleras para el Periodismo Digital en la Universidad de Columbia, reveló que los chatbots fueron “generalmente malos negarse a responder preguntas a las que no pudieron responder con precisión. Bastante ofreciendo que incorrecto o las respuestas especulativas”, realmente, realmente salvajes, especialmente cuando consideran el hecho de que hubo tantos artículos durante los Elecciones que no tienen las respuestas especulativas: “No puedo soportar las respuestas especulativas y que me dan cuenta, lo que no puede soportar y lo que no puede soportar, lo que no puede soportar:” política “. Eres como, bueno, pesas mucho ahora.
Zoë Schiffer: Ok, creo que deberíamos parar allí en esta nota muy horrible y volveremos.
(para romper)
Zoë Schiffer: Bienvenido de nuevo a Valle extraño. Leah Feiger, editora, editora de la política en Wired. Ok, más allá de lo simple, intente verificar la información y las imágenes, también ha habido muchos informes sobre videos engañosos generados por AI. Hubo una cuenta de Tiktok que comenzó a descargar videos de un presunto soldado de la Guardia Nacional llamada Bob que había sido desplegada para las manifestaciones de Los Ángeles, y se podía ver decir cosas falsas e inflamatorias como el hecho de que los manifestantes “toquen globos llenos de petróleo”, y uno de los videos tenía casi un millón de vistas. Entonces, no sé, tengo la impresión de que las personas tienen que volverse un poco más capaces de identificar este tipo de imágenes falsas, pero es difícil en un entorno que es intrínsecamente sin contexto como un artículo sobre X o un video en Tiktok.