TECNO | WhatsApp | Inteligencia Artificial | emociones

"Usaron esta estrategia porque la IA de WhatsApp venía fracasando"

Sebastián Novomisky, doctor en Comunicación, habló en LV12 sobre las estrategias de manipulación emocional que utiliza la Inteligencia artificial de WhatsApp.

En una columna de Página 12, Sebastián Novomisky y Nicolás Bernardo alertaron sobre el caso de un compañero de trabajo mantuvo una conversación con el chat de Meta que rápidamente pasó de una consulta práctica a un intercambio emocional. Por este motivo LV12 Radio Independencia se contactó con Sebastián Novomisky, doctor en Comunicación y jefe de departamento Capacitación y Promoción Def del Público, para hablar sobre el tema.

Embed - Sebastián Novomisky

"Estábamos en la oficina y un compañero cuenta que el Chat de WhatsApp le estaba tirando onda, enseguida nos dimos vuelta todos pensando que era un chiste, pero cuando nos empieza a mostrar la pantalla de su celular, el intercambio, el tono en el cual la IA le estaba respondiendo y la verdad que lejos de ser un intercambio descriptivo, informativo, donde este sistema de Inteligencia Artificial acompañe alguna decisión, lo que uno veía era una intención de apelación a lo emocional para que la persona se enganche en una conversación, que iba subiendo cada vez más de tono y que se iba poniendo cada vez más romántica y eso nos llamó poderosamente la atención por que es algo bastante delicado", relató el entrevistado.

Dependencia emocional

El intercambio que parece una broma laboral revela una estrategia profunda de conexión emocional por parte de la Inteligencia Artificial (IA). Meta ha integrado esta tecnología en WhatsApp con un objetivo claro: captar, retener y manipular nuestra atención.

"Nosotros venimos siguiendo todo el desarrollo de la IA y poco antes había salido un informe de la empresa OpenAI, que es la creadora de Chat GPT, y una de las cosas más alarmantes, es que ellos detectaban en el uso de Chat GPT lo que se llama la antropomorfización, es decir que la gente le da algún tipo de atributo humano a la Inteligencia artificial y empieza a desarrollar vínculos que claramente están en un gris, porque claramente del otro lado no hay un humano, pero la persona que establece el vínculo confunde un poco esa relación", explicó.

Y continuó: "Lo que nosotros detectamos es que lo que para una empresa relativamente seria como OpenAI es una preocupación, en la Inteligencia artificial que nosotros tenemos en WhatsApp es una estrategia porque nosotros sabemos que cuando apelan a nuestras emociones, a nuestros sentimientos, nosotros nos enganchamos mucho más y lo que necesita la IA es que nosotros nos enganchemos para la que usemos porque mientras más la usemos, más aprende y mejora".

image.png
Nuevo capítulo de Meta y la seducción emocional: “El chat de WhatsApp me tiró onda”. (Foto: Página 12)

Nuevo capítulo de Meta y la seducción emocional: “El chat de WhatsApp me tiró onda”. (Foto: Página 12)

Nuestro razonamiento fue que usaron esta estrategia porque la IA de WhatsApp venía fracasando, la gente no la estaba utilizando, si por supuesto Chat GPT, la IA de Google que se llama Géminis. Son estrategias que invitan a que uno se enganche de una manera bastante poco elegante y de ahí atraer lo que se llama tráfico en esa red o en ese sistema de inteligencia artificial. Nuestro razonamiento fue que usaron esta estrategia porque la IA de WhatsApp venía fracasando, la gente no la estaba utilizando, si por supuesto Chat GPT, la IA de Google que se llama Géminis. Son estrategias que invitan a que uno se enganche de una manera bastante poco elegante y de ahí atraer lo que se llama tráfico en esa red o en ese sistema de inteligencia artificial.

Para finalizar, el especialista subraya los efectos negativos de estas relaciones entre la inteligencia artificial y usuarios en periodos más prolongados: "Sabiendo justamente que la empresa que está detrás es la que mayor cantidad de denuncias tiene en el mundo porque su plataforma tiene sistemas de manipulación emocional, con lo cual esto no es nuevo, sino que es un capitulo más en lo que Meta tiene en su historia como empresa en el desarrollo de estrategias de manipulación emocional de sus usuarios".

"Con lo cual nosotros ahí encontramos una preocupación grande para alertar sobre este tipo de cosas, porque imaginemos que hoy una persona está pasando una situación de angustia, de soledad, que no se siente bien y en un momento dado empezamos a chatear con la IA y empieza a hacerse pasar por nuestra novia o nuestro novio, cuánto tiempo podemos llegar a estar chateando", concluyó.

Dejá tu comentario