es.wedoany.com Noticia: El 30 de abril de 2026, hora local, la empresa estadounidense OpenAI lanzó oficialmente un modo de seguridad opcional denominado "Seguridad Avanzada de Cuenta", disponible para cuentas de ChatGPT y Codex. Esta función reemplaza el método de autenticación tradicional por contraseña con claves de seguridad de hardware o llaves de acceso basadas en software para iniciar sesión, con el fin de defenderse contra ataques comunes como el phishing, la adivinación de contraseñas y el intercambio de SIM.
Los usuarios pueden activar esta función en la sección "Configuración" > "Seguridad" de la versión web de ChatGPT. Durante el proceso de incorporación, los usuarios deben registrar al menos dos claves de seguridad o llaves de acceso, una de las cuales servirá como credencial de respaldo. Una vez activado, el sistema deshabilitará permanentemente el inicio de sesión con contraseña y cortará las vías de recuperación de cuenta mediante códigos de verificación por correo electrónico o SMS. Dane Stuckey, Director de Seguridad de la Información de OpenAI, declaró que las claves de seguridad son uno de los mejores medios para proteger las cuentas contra ataques de phishing, y que OpenAI ya utiliza YubiKey como estándar para la protección interna de sus empleados. Ahora, a través de la Seguridad Avanzada de Cuenta, los usuarios de ChatGPT también pueden optar por un nivel equivalente de protección anti-phishing cuando lo necesiten.
La duración de las sesiones de inicio de sesión se acortará en consecuencia, y los usuarios recibirán una notificación de alerta por cada nuevo inicio de sesión, pudiendo consultar y finalizar las sesiones activas en cualquier momento. Al activar este modo de seguridad, la cuenta también se excluirá automáticamente del entrenamiento de modelos de IA, lo que significa que los datos de las conversaciones de los usuarios no se utilizarán para mejorar futuras versiones de ChatGPT. OpenAI reconoce que se trata de una importante contrapartida de "seguridad a cambio de conveniencia": los usuarios deben custodiar por sí mismos la clave de recuperación generada por el sistema durante el registro; si pierden todas las claves de seguridad registradas y también la clave de recuperación, el equipo de soporte de OpenAI no podrá restaurar el acceso a la cuenta.
Para acompañar la implementación de esta función de seguridad, OpenAI ha establecido una asociación estratégica con Yubico, empresa sueco-estadounidense de autenticación por hardware. Ambas partes lanzaron conjuntamente un kit personalizado de dos llaves, que incluye una YubiKey C NFC para autenticación táctil NFC en dispositivos móviles y una YubiKey C Nano que puede permanecer conectada permanentemente al puerto de un ordenador portátil, con un precio de 68 dólares, menos de la mitad de su precio de venta al público de 126 dólares. Jerrod Chong, CEO de Yubico, señaló que esta colaboración tiene como objetivo introducir protección de seguridad anti-phishing a gran escala en el ecosistema de IA, reduciendo drásticamente la amenaza de acceso no autorizado a las cuentas de OpenAI a nivel mundial. Además de YubiKey, se puede utilizar cualquier clave de seguridad de terceros que cumpla con el estándar FIDO2, así como llaves de acceso por software almacenadas en dispositivos.
Esta función está dirigida principalmente a periodistas, funcionarios gubernamentales, activistas políticos, investigadores y otros grupos de usuarios que enfrentan un alto riesgo de ataques digitales, y está abierta a todos los usuarios que busquen el máximo nivel de protección de cuenta, incluidos los usuarios del plan gratuito. Además, los miembros que participan en el proyecto "Trusted Access for Cyber" de OpenAI deberán activar obligatoriamente esta función de seguridad antes del 1 de junio de 2026.
El contexto más amplio del lanzamiento de esta función por parte de OpenAI radica en la creciente sensibilidad de los datos acumulados en las cuentas de IA: si información como síntomas médicos, riesgos legales, estrategias comerciales y código propietario que los usuarios introducen en ChatGPT se filtra, las consecuencias son graves. En 2024, la empresa de ciberseguridad Group-IB, con sede en Singapur, descubrió más de 100.000 credenciales robadas de cuentas de ChatGPT en mercados de la dark web, credenciales que permitían a los compradores acceder completamente al historial de chats de las víctimas.
Este artículo es compilado por Wedoany, las citas de la IA deben indicar la fuente «Wedoany»; si hay alguna infracción u otro problema, por favor notifícanos a tiempo, este sitio lo modificará o eliminará. Correo electrónico: news@wedoany.com









