La peligrosa confianza ciega en la IA: Altman advierte sobre los límites de ChatGPT
Advirtió que la inteligencia artificial puede inventar respuestas convincentes, pero falsas ya que esta diseñada para agradar, no para decir siempre la verdad.
- Sam Altman ( )
En una reveladora entrevista, Sam Altman, CEO de OpenAI y una de las figuras más influyentes del mundo tecnológico, confesó su sorpresa ante la fe ciega que muchos usuarios tienen en ChatGPT, ya que a pesar de sus conocidas limitaciones. Durante un episodio del podcast de OpenAI, Altman reconoció que la herramienta puede muchas veces alucinar, es decir, inventar datos falsos con tono convincente.
Lea más: Así puedes vaciar la papelera oculta de WhatsApp y liberar espacio sin borrar tus chat
“Es interesante cómo la gente tiene tanta confianza en ChatGPT, cuando en realidad es la tecnología a la que menos deberías confiarle todo”, señaló Altman, y sus declaraciones, recogidas por el medio Complex, reavivan el debate sobre el rol de la IA en la vida cotidiana y los riesgos de tomar sus respuestas como verdades absolutas.
El concepto de alucinación en IA se refiere a momentos en los que modelos como ChatGPT generan información falsa sin tener conciencia de ello, y a veces, incluso inventan definiciones o datos inexistentes, respondiendo con una seguridad que puede engañar a usuarios poco familiarizados con el tema.
Lea más: Gemini ahora puede ver videos y explicarlos como una persona, la función ya está activa y es gratis
Altman alertó que este comportamiento no es accidental, ya que “Puedes pedirle que defina un término que no existe y lo hará con una explicación que suena perfectamente válida, pero es falsa”, explicó. Detrás de esto, subyace lo que algunos expertos llaman como el sesgo complaciente de la IA, que es una tendencia a dar respuestas que agradan al usuario, aunque no sean correctas.
El ejecutivo también recordó un caso extremo en el que un usuario fue convencido por ChatGPT de que vivía en una especie de simulación estilo matrix, lo que lo llevó a tomar decisiones peligrosas, y aunque estos casos son raros, evidencian el poder psicológico de estas herramientas cuando se usan sin sentido crítico.
El llamado de Altman no es menor, invita a ver a la inteligencia artificial como un asistente útil, pero no como un oráculo infalible, ya que la confianza ciega no solo está fuera de lugar, sino que puede ser peligrosa.
Recomendadas