TECNO | ChatGPT | Italia | inteligencia artificial

ChatGPT: "Puede decir cosas incoherentes o falsas"

Juan Gustavo Corvalán, director del Laboratorio de Innovación e inteligencia artificial, hablo en LV12 del robot conversacional ChatGPT bloqueado por Italia.

Italia bloqueó al robot conversacional ChatGPT por no respetar la legislación sobre datos personales y carecer de un sistema de verificación de edad de los usuarios menores, informaron las autoridades locales.

Esta decisión, que tiene “efecto inmediato”, supone “la limitación provisional del tratamiento de los datos de usuarios italianos por OpenAI”, la empresa estadounidense creadora de ChatGPT, precisó en un comunicado la autoridad de protección de datos personales de Italia.

En este contexto LV12 se contactó con Juan Gustavo Corvalán PhD en derecho, master en Inteligencia Artificial, y director del Laboratorio de Innovación e Inteligencia artificial, para hablar sobre los beneficios y las contraindicaciones de dicho chat.

image.png

"En primer lugar, no es una app que uno se descarga, simplemente yo me puedo generar un usuario en un link de internet que se llama "OpenAI", y lo puedo comenzar a usar de manera gratuita. Si uno se descarga Facebook, Tik Tok, o Instagram tiene que firmar términos y condiciones, y eso significa que uno acepta una política de privacidad, ChatGPT no tiene para que vos aceptes una política de privacidad, no te hace firmar un contrato de adhesión y esta es una de las razones por las que Italia lo bloqueó. Italia ya viene desde hace rato exigiéndoles a las plataformas digitales que tengan políticas de cookies", explicó sobre el funcionamiento del robot conversacional ChatGPT.

"La inteligencia artificial en general está muy lejos de muchas empresas chicas, y lo que hizo ChatGPT es democratizar el acceso, es decir si yo tengo un negocio chico, por ejemplo, un kiosco puedo consultar a través del chat cuál es la mejor estrategia de venta para productos que se venden poco, y así puede funcionar con cualquier profesión", agregó.

image.png

Fiabilidad de la información

"En general estos sistemas de inteligencia artificial muy grandes, formados por millones de datos, se desconoce la procedencia de esos datos y no se sabe hasta que puntos son fiables, es decir si el dato era o no sesgado, si era o no inexacto. Entonces, este es un problema porque puede decir cosas incoherentes o falsas. Nosotros en la UBA hicimos un libro, en donde analizamos que el 22% sobre 600 pruebas de este chat eran incorrectas o incoherentes, y más de un 40% eran sesgadas", argumentó.

Tengan en cuenta que este chat salió a fines de noviembre y en un mes tuvo diez millones de usuarios, es un récord, ninguna plataforma de internet tuvo en la historia tanta cantidad de usuarios en tan poco tiempo, y GPT 4 es como la versión evolucionada de este chat, y ya en marzo ese 22% lo redujo a 3,5%. En cuatro meses paso de un 78% de acierto a más de un 90% de acierto. En general el mundo a partir de un 85% ya es un sistema fiable, lo que sucedes es que ChatGPT, como todavía no estaba concertado a internet no se podía actualizar, y esto se debe a que lo entrenaron con datos hasta una fecha determinada de 2021, entonces, te daba respuestas, pero con información hasta 2021. Tengan en cuenta que este chat salió a fines de noviembre y en un mes tuvo diez millones de usuarios, es un récord, ninguna plataforma de internet tuvo en la historia tanta cantidad de usuarios en tan poco tiempo, y GPT 4 es como la versión evolucionada de este chat, y ya en marzo ese 22% lo redujo a 3,5%. En cuatro meses paso de un 78% de acierto a más de un 90% de acierto. En general el mundo a partir de un 85% ya es un sistema fiable, lo que sucedes es que ChatGPT, como todavía no estaba concertado a internet no se podía actualizar, y esto se debe a que lo entrenaron con datos hasta una fecha determinada de 2021, entonces, te daba respuestas, pero con información hasta 2021.

image.png

"Fuera de control"

Esta semana, un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica, incluido Elon Musk, pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad.

"Las cuestiones centrales podrían resumirse en dos, uno hace referencia a que estos sistemas más sofisticados que GPT4, podrían poner en crisis el modelo económico y social de los países porque ni siquiera los programadores saben porque hacen lo que hacen, ese problema se llama caja negra. Ese punto de la carta es un llamado a los laboratorios y a la comunidad en general para decir los que estén haciendo cosas más sofisticadas que GPT4 por favor paren por seis meses porque nosotros tenemos que darnos tiempo para analizar las implicancias económicas, políticas y sociales. El otro punto dice algo sumamente relevante para países emergentes como el nuestro, donde hay altos índices de pobreza, la carta plantea, ¿estamos dispuestos a automatizar todo?, porque la inteligencia artificial cada ve se va comiendo más tareas humanas y no se puede definir cuál es el límite", comentó.

Colombia: Un juez que usó ChatGPT para una sentencia (lv12.com.ar)

Dejá tu comentario