En varios casos, OpenAI buscó enmiendas que eventualmente llegaron al texto final del borrador de la propuesta de la Ley de IA, informó la revista TIME, citando documentos obtenidos de la UE a través de solicitudes de libertad de información.
“Por sí mismo, GPT-3 no es un sistema de alto riesgo, pero posee capacidades que potencialmente pueden emplearse en casos de uso de alto riesgo”, dijo OpenAI en el documento de siete páginas enviado a la UE.
Los sistemas clasificados como de “alto riesgo” estarán sujetos a obligaciones de divulgación y se espera que se registren en una base de datos especial. También estarán sujetos a varios requisitos de seguimiento o auditoría.
En un intento por evitar reglas más estrictas, OpenAI también rechazó una enmienda propuesta a la Ley de IA que buscaba clasificar los sistemas de IA generativa como ChatGPT y Dall-E como de “alto riesgo” si generaban texto o imágenes que podrían “aparecer falsamente”. a una persona para ser generada por humanos y auténtica”.
OpenAI dijo en su libro blanco que “GPT-3 y nuestros otros sistemas de inteligencia artificial de propósito general, como DALL-E, pueden generar resultados que podrían confundirse con texto humano y contenido de imágenes”.
Descubre las historias de tu interés
La compañía argumentó que la ley requiere que las empresas implementen “mitigaciones razonablemente apropiadas en torno a la desinformación y las falsificaciones profundas, como el contenido de marca de agua o el mantenimiento de la capacidad para confirmar si su sistema generó un contenido determinado”. El mes dijo que el fabricante de ChatGPT podría considerar abandonar Europa si no podía cumplir con las nuevas regulaciones de IA.
“Antes de considerar retirarse, OpenAI intentará cumplir con la regulación en Europa cuando se establezca”, dijo Altman en un evento en Londres.
El libro blanco de OpenAI difiere de la opinión del CEO Altman, quien, en múltiples ocasiones, ha abogado por una regulación más estricta de las tecnologías de IA.
En un evento de ET a principios de este mes, Altman dijo: “Hemos dicho explícitamente que no debería haber regulaciones sobre las empresas más pequeñas o sobre los modelos de código abierto actuales; es importante dejar que eso florezca. La única regulación que hemos pedido es (sobre) personas como nosotros o más grandes”.
La nueva normativa de IA de la UE
El 14 de junio, el Parlamento Europeo votó para aprobar su borrador de propuesta para la Ley de IA, una ley que espera dé forma a los estándares globales en la regulación de la IA.
Se convertirá en la primera legislación del mundo dedicada a regular la IA en casi todos los sectores de la sociedad, excepto en defensa.
La ley regulará la IA según el nivel de riesgo; cuanto mayor sea el riesgo para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de un sistema.
La legislación plantea una sanción estricta a las empresas que cometen errores, que puede llegar hasta el 6% de su facturación anual total a nivel mundial. También establece restricciones y salvaguardas específicas junto con obligaciones claras para los proveedores de servicios.