Porque hay algo en lo que convergen intelectuales divergentes alrededor del mundo: la base sobre la que se asentará la inteligencia artificial, y también lo que supondrá para la humanidad, se está gestando mientras usted lee este especial. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina: “Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes”, sostiene.
>_ “No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso”
El mensaje estuvo respaldado por figuras como Demis Hassabis de Google DeepMind, Kevin Scott de Microsoft y Jaan Tallinn, cofundador de Skype, señala que, si bien se están discutiendo regulaciones para las IA, es crucial centrarse en mitigar los riesgos potenciales asociados con la creación de versiones altamente avanzadas de estos programas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear” coinciden los expertos en el comunicado.
El creador de ChatGPT ya había expresado previamente que teme que la inteligencia artificial pueda ser utilizada para generar contenidos desinformativos y remarcó que estos programas se benefician de la interacción con los humanos para identificar y corregir errores. Además, se mostró a favor de la regulación de la IA para proteger la seguridad de los usuarios de internet.
No obstante, la postura de Altman sobre la regulación parece depender de lo que considere apropiado. Durante el debate sobre una posible normativa en la Unión Europea, Altman dijo que la propuesta inicial le parecía excesiva. Indicó que OpenAI intentaría cumplir con los estándares del Parlamento Europeo, pero en caso de no poder hacerlo, podría verse obligado a cerrar sus operaciones en esa parte del mundo. Sin embargo, posteriormente aclaró que OpenAI “no tiene planes de abandonar Europa”.
La UE está debatiendo una propuesta para regular la inteligencia artificial basada en una pirámide de riesgos. Propones que las IA deben cumplir una serie de estándares de seguridad para ser admitidas en Europa. Las que no cumplan con los requisitos serán vetadas del mercado y deberán solucionarlo para luego poder ser consideradas para su ingreso.