Elon musk, dueño de Twitter y Tesla, se puso al frente de los pedidos sobre la Inteligencia Artificial
Elon musk, dueño de Twitter y Tesla, se puso al frente de los pedidos sobre la Inteligencia Artificial
PEDIDO DE ELON MUSK Y CIENTÍFICOS

Quieren ponerle un freno a la Inteligencia Artificial

Afirman que existen “grandes riesgos para la humanidad”

A partir de que se conoció hoy una carta que firmaron miles académicos y CEOs “tech”, como el dueño de Twitter y Tesla, Elon Musk, pidiendo una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) por los “grandes riesgos para la humanidad” que representan estas plataformas, expertos en la temática aseguraron que debe trabajarse en “regulaciones a nivel internacional” sobre estas tecnologías y “ponerlas al servicio de las personas”.

En la carta publicada en el sitio futureoflife.org, Musk; el confundador de Apple, Steve Wozniak, y el historiador Yuval Noah Harari, entre otras cientos de personalidades, advirtieron que “los sistemas de IA pueden plantear riesgos profundos para la sociedad y la humanidad y podrían representar un cambio profundo en la historia de la vida en la Tierra, y deben planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo”.

Los expertos criticaron que “en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”.

La polémica se generó a partir del reciente lanzamiento del programa GPT-4 de la empresa estadounidense OpenAI, a sólo cinco meses de la versión que se abrió al público y que generó que millones de usuarios se vuelquen a utilizar esta tecnología gracias a la capacidad de realizar múltiples tareas como ensayos académicos o piezas musicales.

Con la nueva versión, además de mejorar la interacción gracias a la capacidad de generar textos basados en un lenguaje autorregresivo que utiliza el “machine learning”, se incorporó el trabajo a partir de imágenes y sonidos y la generación de videos.

El pasado lunes, la fuerza policial de la Unión Europea, Europol, se unió al coro de preocupaciones éticas y legales, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. El gobierno del Reino Unido dio a conocer propuestas para un marco regulatorio “adaptable” en torno a la inteligencia artificial, que dividiría la responsabilidad de gobernarla entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo específico.

A partir de las dificultades que estas plataformas agregaron a distinguir entre lo real y lo artificial, los expertos congregados en futureoflife.org alertaron por una “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

Por su parte, el director de Open AI, Sam Altman, reconoció tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”. “La empresa necesita tiempo para adaptarse”, declaró Altman recientemente.

“Se están lanzando productos muy potentes primero, y después se preguntan por las consecuencias. La evaluación de los riesgos debe hacerse desde el momento de la concepción”, opinó Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, y aseguró que “es hora de discutir la regulación de estas tecnologías”.

Esta semana, el CEO y Fundador de Mercado Libre, Marcos Galperín, se quejó en su cuenta de Twitter por los errores en las respuestas de un chatbot.

“Según ChatGPT 4, trabajé en Boston Consulting Group, fui director de Aerolíneas Argentinas y Globant es una empresa de tecnología brasileña. Cuando le comenté que estos eran todo errores, dijo que fui director del Banco Comafi (también equivocado)”, escribió Galperín y advirtió que “cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, esta alucinaciones pueden ser muy peligrosas”.

COMENTARIOS