A partir del 29 de octubre, OpenAI implementó nuevas restricciones en el uso de ChatGPT para reforzar la seguridad y la ética en el empleo de la inteligencia artificial. Entre las principales modificaciones, se prohíbe que el chatbot brinde asesoramiento profesional especializado en ámbitos como el jurídico, médico o financiero.
En qué consiste la actualización
La empresa estadounidense aclaró que la herramienta podrá seguir ofreciendo información general o explicaciones sobre esos temas, pero no reemplazará la intervención de un especialista humano. Esto quiere decir que, por ejemplo, ChatGPT podrá describir qué es la hipertensión o en qué consiste un contrato de alquiler, pero no podrá indicar tratamientos, firmar decisiones legales ni recomendar inversiones.
En busca de mayor seguridad
Desde OpenAI se explicó que la medida busca proteger a los usuarios y evitar el uso de la inteligencia artificial para decisiones de “alto riesgo” sin revisión humana, especialmente en servicios críticos como salud. El objetivo es promover un uso responsable y consciente de la tecnología.