OpenAI anunció una actualización importante en las políticas de uso de ChatGPT, su sistema de inteligencia artificial conversacional, que prohíbe ofrecer asesoramiento médico, legal o financiero personalizado sin la intervención de un especialista titulado. La medida, efectiva desde el 29 de octubre, refuerza el compromiso de la compañía con la seguridad y la ética en el uso de la IA.
Según detalla la empresa, la decisión pretende impedir que sus modelos «interfieran con la capacidad de acceder a servicios críticos», entre ellos los de carácter gubernamental, legal, médico o esencial, cuando se trate de decisiones de «alto riesgo» que requieran revisión humana. En otras palabras, ChatGPT podrá seguir respondiendo preguntas de carácter general o hipotético, pero no ofrecer recomendaciones aplicables a casos personales.
El cambio llega tras varios incidentes que han reavivado el debate sobre los límites del uso de la inteligencia artificial en temas sensibles. Uno de los más conocidos fue el del joven estadounidense Adam Raine, quien falleció en abril de 2025 tras mantener conversaciones de autoayuda con el sistema. El caso provocó un amplio debate sobre la necesidad de establecer controles más estrictos en la interacción entre usuarios vulnerables y herramientas de IA.
Pese a las nuevas restricciones, algunos usuarios han señalado que ChatGPT sigue emitiendo sugerencias en ámbitos médicos y jurídicos, aunque siempre acompañadas de advertencias que aclaran que sus respuestas «no sustituyen el asesoramiento profesional».
























Discussion about this post