La compañía de inteligencia artificial OpenAI ha decidido posponer la salida de su esperado modelo de peso abierto, citando la necesidad de realizar pruebas de seguridad adicionales y revisar riesgos potenciales, en un movimiento que podría afectar futuros avances en IA.

La noticia, dada a conocer por su director ejecutivo, Sam Altman, a través de una publicación en la plataforma social X (antes conocida como Twitter), ha generado mucha atención en el mundo tecnológico y científico.
Supuestamente, el retraso se debe a que el equipo de #OpenAI necesita realizar pruebas adicionales para garantizar la #seguridad y mitigar posibles riesgos asociados con el uso del nuevo modelo.
Aunque originalmente la compañía tenía previsto lanzar el modelo en la próxima semana, ahora no hay una fecha concreta para su disponibilidad. Altman declaró: “Estamos retrasando su lanzamiento porque necesitamos más tiempo para realizar pruebas de seguridad y revisar áreas de alto riesgo.
Aún no estamos seguros de cuánto tiempo nos tomará”.
Este modelo, considerado una innovación en el campo de la inteligencia artificial, ha sido diseñado para ser de peso abierto, lo que significa que otros desarrolladores y empresas podrían acceder y modificar su código para crear aplicaciones personalizadas.
Sin embargo, supuestamente, una de las preocupaciones principales de OpenAI es que, una vez que los pesos del modelo sean liberados, no podrán ser retirados, lo que podría generar riesgos en su uso indiscriminado.
El retraso en la publicación del modelo llega en un momento en que la comunidad de #inteligencia artificial está en auge, con muchas empresas compitiendo por liderar el mercado.
Se especula que este lanzamiento, que inicialmente estaba previsto para coincidir con la posible introducción de futuras versiones de ChatGPT, podría tener un impacto significativo en el desarrollo de nuevas aplicaciones y servicios basados en IA.
Algunos analistas consideran que esta decisión refleja la creciente preocupación por la seguridad y el control en el desarrollo de inteligencia artificial avanzada
Supuestamente, algunos analistas consideran que esta decisión refleja la creciente preocupación por la seguridad y el control en el desarrollo de inteligencia artificial avanzada.
La historia de la IA está llena de ejemplos donde avances rápidos sin la adecuada regulación o control han generado controversias y riesgos, como accidentes o mal uso de la tecnología.
Por otra parte, no se descarta que OpenAI esté analizando colaboraciones con organismos regulatorios internacionales para definir estándares de seguridad en la publicación de #modelos de IA de peso abierto.
La compañía, fundada en 2015 por un grupo de destacados investigadores, ha sido pionera en la democratización del acceso a herramientas de inteligencia artificial, pero ahora parece priorizar la seguridad sobre la velocidad de lanzamiento.
En resumen, aunque los tiempos de lanzamiento se han visto afectados, OpenAI mantiene su compromiso de avanzar en el desarrollo de IA responsable y segura.
La comunidad tecnológica espera que, con estos nuevos controles, la innovación pueda seguir creciendo sin poner en peligro la estabilidad y seguridad de los usuarios.
No te pierdas el siguiente vídeo de descubriendo azure openai: una guía para principiantes