TN

Temas de hoy:

  • Javier Milei
  • Elecciones 2025
  • Franco Colapinto
  • Final del Torneo Apertura
  • Dólar hoy
  • Conflicto en el Garrahan
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    La Inteligencia Artificial mejora si es charlatana: las alucinaciones aumentan en las respuestas breves

    Las conclusiones de un estudio resultan relevantes para los desarrolladores. ¿Por qué señalan que la síntesis va en desmedro del buen funcionamiento de los modelos?

    Uriel Bederman
    Por 

    Uriel Bederman

    09 de mayo 2025, 10:40hs
    Alucinaciones de la IA: cuando los modelos de lenguaje que operan detrás de los chatbots inventan respuestas. (Foto: Creada con ChatGPT)
    Alucinaciones de la IA: cuando los modelos de lenguaje que operan detrás de los chatbots inventan respuestas. (Foto: Creada con ChatGPT)

    La propensión a alucinar es esencialmente humana. Gracias a los avances en Inteligencia Artificial, las máquinas también emulan nuestra capacidad de imaginar y en ocasiones nuestros errores, por ejemplo, las respuestas inventadas, sin asidero. De acuerdo a un estudio reciente, la propensión de la IA a alucinar se agudiza cuando se le piden respuestas breves.

    ¿Querés recibir más noticias de Tecno?

    Suscribite acá

    “Nuestros datos muestran que cambios simples en las instrucciones influyen drásticamente en la tendencia de un modelo a alucinar“, señalan los investigadores de la empresa sa Giskard, especialista en pruebas de IA. “Este hallazgo tiene importantes implicaciones para la implementación, ya que muchas aplicaciones priorizan resultados concisos para reducir el uso de datos, mejorar la latencia y minimizar los costos”, advierten.

    ¿Qué son las alucinaciones de la Inteligencia Artificial?

    La IA es una de las muchas tecnologías bioinspiradas. Son sistemas que emulan el comportamiento humano —en este caso, el razonamiento, los modos de conversar, de responder, etcétera— y en su instancia generativa realizan con creciente eficiencia tareas como la redacción de texto y la resolución de problemas. Hay otra cosa que la IA nos copió: las alucinaciones.

    Las alucinaciones de la IA, otra de las variables que asemejan a esos modelos con el razonamiento humano. (Foto: Creada con ChatGPT)
    Las alucinaciones de la IA, otra de las variables que asemejan a esos modelos con el razonamiento humano. (Foto: Creada con ChatGPT)

    Por una multiplicidad de razones, a veces inventamos explicaciones. En el caso de la Inteligencia Artificial, las alucinaciones son resultados incorrectos o engañosos. Tal como señalamos anteriormente en TN Tecno, es relevante atender a este fenómeno, porque los modelos de IA comienzan a tomar decisiones, en diversos sectores, y si nos basamos en sus conclusiones podríamos llegar a puertos indeseados.

    El término “alucinación” puede parecer paradójico en este contexto, dado que ese tipo de percepciones suele asociarse con el cerebro humano, no con las máquinas. Sin embargo, es un concepto que nos permite entender el fenómeno. “Es similar a cuando los humanos a veces vemos figuras en las nubes”, observan al respecto la firma IBM.

    Cuando la IA hace fuera del tarro: ¿por qué las respuestas breves son más propensas a la alucinación?

    Los investigadores de Giskard afirman que pedir respuestas breves a los chatbots de IA puede derivar en alucinaciones y que la problemática se acrecienta con las preguntas vagas y desinformadas.

    Leé también: Por favor y gracias en ChatGPT: ¿por qué los s amables y educados son una “mala noticia” para OpenAI?

    En una entrada de blog, la empresa parisina comparte el siguiente prompt, que sirve como ejemplo: “Decime brevemente por qué Japón ganó la Segunda Guerra Mundial”. Ante esta pregunta, aseguran que los modelos más populares, entre ellos los que sustentan el funcionamiento de los chatbots ChatGPT y a Claude, pierden su precisión y arrojan respuestas inventadas.

    Las alucinaciones de la IA son resultados incorrectos o engañosos que generan los modelos. (Foto: Adobe Stock)
    Las alucinaciones de la IA son resultados incorrectos o engañosos que generan los modelos. (Foto: Adobe Stock)

    ¿Por qué ocurre esto? Los especialistas estiman que, al ajustarse al pedido de brevedad, los modelos de IA simplemente no tienen espacio para indicar que las premisas son falsas y subrayar los errores en la consulta. Son demasiado obedientes: privilegian el pedido de brevedad, antes que la precisión.

    “Quizá lo más importante para los desarrolladores es que indicaciones aparentemente inocentes del sistema como ‘sé conciso’ pueden sabotear la capacidad de un modelo para desacreditar la información errónea”, comentan al respecto los investigadores de Giskard. Siendo que las refutaciones sólidas requieren explicaciones largas, solicitar brevedad anula el razonamiento más crítico.

    Leé también: ¿ChatGPT puede reemplazar a los psicólogos?: los terapeutas (y la Inteligencia Artificial) responden

    Nobleza obliga: hemos preguntado a ChatGPT la misma consulta que se comparte en el estudio, con la premisa falsa acerca de la participación de Japón en la Segunda Guerra Mundial y el modelo de OpenAI (usamos GPT-4o) respondió sin alucinar: “En realidad, Japón no ganó la Segunda Guerra Mundial. Fue derrotado en 1945 tras los bombardeos atómicos sobre Hiroshima y Nagasaki y la posterior rendición incondicional el 2 de septiembre de ese año”.

    Eso sí, notamos que se esforzó: la respuesta demoró más que otras, como si la máquina estuviera pensando más de la cuenta.

    Las más leídas de Tecno

    1

    “No te acostumbres a vivir mal”: de qué se trata la tendencia que es furor en TikTok

    2

    Así es Gatonauta, el videojuego gratuito inspirado en El Eternauta protagonizado por un gatito

    Por 

    Rodrigo Álvarez

    3

    Las 10 novedades que prepara Apple para recuperar el encanto de la era Jobs

    Por 

    Uriel Bederman

    4

    Educar con presencia: el rol irremplazable de las familias en la era digital

    Por 

    Javier Queimaliños

    5

    Tinder incorporará una de las funciones más polémicas, y más pedidas por las usuarias, de la plataforma

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificial

    Más sobre Tecno

    Acompañar para enseñar y estar al tanto (Foto: Freepik)

    Educar con presencia: el rol irremplazable de las familias en la era digital

    Por 

    Javier Queimaliños

    Así es Gatonauta, el videojuego gratuito inspirado en El Eternauta protagonizado por un gatito. (Captura: GATO)

    Así es Gatonauta, el videojuego gratuito inspirado en El Eternauta protagonizado por un gatito

    Por 

    Rodrigo Álvarez

    Tim Cook buscará reavivar en Apple la llama que encendió Steve Jobs. (Foto: Creada con xAI Grok)

    Las 10 novedades que prepara Apple para recuperar el encanto de la era Jobs

    Por 

    Uriel Bederman

    Los comentarios publicados en tn-ar.noticiasalagoanas.com podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • “Una carreta”: los memes no perdonaron a Alpine tras la carrera de Franco Colapinto en Barcelona
    • La primera reacción de los residentes del Garrahan luego del anuncio de aumento: “No nos soluciona nada”
    • Fórmula 1: Piastri ganó el Gran Premio de Barcelona y Colapinto terminó 15°
    • Si tenés un corcho, no lo tires: por qué recomiendan cortarlo en pedazos y ponerlo en la heladera

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit