Anoche en Radiogeek podcast, les contaba de los problemas de seguridad que se dieron a conocer sobre OpenAI, la empresa detras de ChatGPT. Y los mismos se dieron a conocer a principios de esta semana, cuando el ingeniero y desarrollador de Swift Pedro José Pereira Vieito investigó la aplicación Mac ChatGPT de OpenAI y descubrió que almacenaba las conversaciones de los usuarios localmente en texto sin formato, en lugar de cifrarlas.
Como esa aplicación solo está disponible en el sitio web de OpenAI y no está disponible en la App Store, supuestamente no tiene que cumplir con los requisitos de sandbox de Apple. De cualquier manera OpenAI lanzó una actualización que agregó cifrado a los chats almacenados localmente.
Luego, surgieron más malas noticias a raíz de los problemas que se presentaron en 2023. El año pasado un pirata informático obtuvo información sobre OpenAI después de acceder de forma ilícita a los sistemas de mensajería interna de la empresa. El New York Times informó que el director del programa técnico de OpenAI, Leopold Aschenbrenner, planteó preocupaciones de seguridad, argumentando que el ataque implicaba vulnerabilidades internas (y eso le iba a traer consecuencias).
Aschenbrenner ahora dice que fue despedido por revelar información sobre OpenAI y por plantear problemas de seguridad. Y como era de esperar desde OpenAI le informa a The Times que “si bien compartimos su compromiso con la construcción de una IA segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo” y agregó que su salida no fue el resultado de una denuncia de irregularidades.
No hay dudas que la impresión que brinda OpenAi no es del todo buena, en lo que respecta a privacidad y seguridad en general. Y mucho más cuando se trata de la supervisión y las prácticas de la empresa detrás de esas puertas corporativas cerradas.