Por un costado están aquellos, como Altman, que ven el rápido crecimiento y, especialmente, el despliegue sabido de la IA como esencial para poner a prueba y perfeccionar la tecnología. Del otro costado están quienes dicen que el camino más seguro a seguir es desarrollar y probar completamente la IA en un laboratorio primero para asegurar que sea, por así decirlo, segura para el consumo humano.
Mejore su destreza tecnológica con cursos de habilidades de suspensión valencia
Ofreciendo universidad | Curso | Sitio web |
---|---|---|
Escuela de Negocios de la India | Transformación digital de la JIS | Turista |
IIT Delhi | Software de certificación IITD en ciencia de datos y enseñanza automotriz | Turista |
Escuela de Negocios de la India | Certificado Profesional ISB en Diligencia de Productos | Turista |
Altman, de 38 abriles, fue despedido el viernes de la empresa que creó el popular chatbot ChatGPT. Para muchos, era considerado el rostro humano de la IA generativa.
Algunos advierten que el software hiperinteligente podría volverse incontrolable, lo que llevaría a una catástrofe, una preocupación entre los trabajadores tecnológicos que siguen un movimiento social llamado “altruismo efectivo”, que creen que los avances de la IA deberían beneficiar a la humanidad. Entre quienes comparten esos temores se encuentra Ilya Sutskever de OpenAI, el sabio superior y miembro de la congregación que aprobó la destitución de Altman.
Ha surgido una división similar entre los desarrolladores de vehículos autónomos -también controlados por IA- que dicen que deben circular por las densas calles urbanas para comprender plenamente las facultades y debilidades de los vehículos; mientras que otros instan a la moderación, preocupados de que la tecnología presente riesgos incognoscibles.
Esas preocupaciones sobre la IA generativa llegaron a un punto crítico con el sorpresivo despido de Altman, quien asimismo era cofundador de OpenAI. IA generativa es el término para el software que puede producir contenido coherente, como ensayos, códigos de computadora e imágenes fotográficas, en respuesta a indicaciones simples. La popularidad de ChatGPT de OpenAI durante el año pasado ha acelerado el debate sobre la mejor forma de regular y desarrollar el software.
Descubre las historias de tu interés
“La pregunta es si se manejo simplemente de otro producto, como las redes sociales o las criptomonedas, o si se manejo de una tecnología que tiene la capacidad de aventajar a los humanos y volverse incontrolable”, dijo Connor Leahy, director ejecutante de ConjectureAI y defensor de la seguridad. “¿El futuro pertenece entonces a las máquinas?” Según se informa, Sutskever sintió que Altman estaba poniendo el software de OpenAI demasiado rápido en manos de los usuarios, comprometiendo potencialmente la seguridad. “No tenemos una alternativa para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta”, escribieron él y un diputado en una publicación de blog en julio. “Los humanos no podrán supervisar de forma fiable sistemas de inteligencia industrial mucho más inteligentes que nosotros”.
Según se informa, fue de particular preocupación que OpenAI anunció una serie de nuevos productos disponibles comercialmente en su evento para desarrolladores a principios de este mes, incluida una traducción de su software ChatGPT-4 y los llamados agentes que funcionan como asistentes virtuales.
Sutskever no respondió a una solicitud de comentarios.
Muchos tecnólogos consideran que el destino de OpenAI es fundamental para el crecimiento de la IA. Las discusiones durante el fin de semana para reinstalar a Altman fracasaron, frustrando las esperanzas entre los acólitos del ex CEO.
El impulso de ChatGPT en noviembre pasado provocó un frenesí de inversiones en empresas de inteligencia industrial, incluidos 10 mil millones de dólares de Microsoft para OpenAI y miles de millones más para otras empresas emergentes, incluidas Alphabet y Amazon.com.
Eso puede ayudar a explicar la ataque de nuevos productos de IA a medida que empresas como Anthropic y ScaleAI compiten para mostrar el progreso a los inversores. Mientras tanto, los reguladores están tratando de seguir el ritmo del crecimiento de la IA, incluidas las directrices de la sucursal Biden y el impulso de una “autorregulación obligatoria” por parte de algunos países mientras la Unión Europea trabaja para promulgar una amplia supervisión del software.
Si perfectamente la mayoría utiliza software de IA generativa, como ChatGPT, para complementar su trabajo, como escribir resúmenes rápidos de documentos extensos, los observadores desconfían de las versiones que pueden surgir conocidas como “inteligencia caudillo industrial” o AGI, que podrían realizar tareas cada vez más complicadas sin cualquier incitación. Esto ha generado preocupaciones de que el software pueda, por sí solo, apoderarse de los sistemas de defensa, crear propaganda política o producir armas.
OpenAI se fundó como una ordenamiento sin fines de utilidad hace ocho abriles, en parte para asegurar que sus productos no estuvieran impulsados por la producción de ganancias que pudieran llevarlo por una irresoluto resbaladiza cerca de un AGI peligroso, lo que se conoce en los estatutos de la compañía como cualquier amenaza de “dañar a la humanidad o concentrar indebidamente el poder”. Pero desde entonces, Altman ayudó a crear una entidad con fines de utilidad en el interior de la empresa con el fin de percibir fondos y otros fines.
A última hora del domingo, OpenAI nombró director ejecutante sustituto a Emmett Shear, ex director de la plataforma de transmisión Twitch. En septiembre abogó en las redes sociales por una “desaceleración” del crecimiento de la IA. “Si ahora estamos a una velocidad de 10, la pausa se reduce a 0. Creo que deberíamos aspirar a un 1-2”, escribió.
Las razones precisas detrás del derrocamiento de Altman aún no estaban claras hasta el lunes. Pero es seguro concluir que OpenAI enfrenta grandes desafíos en el futuro.