El doble sentido en Instagram: tensiones entre inteligencia artificial y libertad de expresión
Si bien las personas suelen comprender el doble sentido, la ironía y el sarcasmo, el sistema automatizado de moderación, clasificación y prevención implementado por la inteligencia artificial de Instagram, al que en adelante denominaremos “algoritmo”, puede no interpretar adecuadamente esos matices lingüísticos. Esto puede derivar en restricciones, suspensiones e inhabilitaciones erróneas de perfiles de usuarios que emplearon dichas expresiones.
A continuación, repasaremos brevemente los casos más habituales que llegan a nuestro estudio sobre falta de comprensión de doble sentido por el algoritmo:
1. Violencia en sentido figurado
Se trata del doble sentido relacionado con violencia que usualmente solemos utilizar en nuestra vida cotidiana, como por ejemplo: “Mi perro me hizo un desastre en la casa, le voy a matar”, “Amiga, te voy a matar cuando te vea”, “Hay que prender fuego todo”, “Te voy a secuestrar y llevarte para mi casa”, etc.
Estas expresiones pueden generar que el sistema algorítmico de la red social, al detectar la gravedad de las palabras empleadas, active filtros automáticos, aunque el contexto sea coloquial. Esto puede generar desde una infracción, también denominada “Strike”, hasta la suspensión e inhabilitación de la cuenta del usuario autor de la expresión.
2. Sarcasmo político o institucional
Sarcasmo vinculado a asuntos políticos, constitucionales o respecto a noticias de interés general, como por ejemplo: “Qué lindo país, salgamos a robar que no pasa nada”, “Hay que dinamitar el Congreso”, “Hay que volar al presidente”, “ese funcionario es adicto a las sustancias”. Son expresiones que el algoritmo puede marcar como desinformación o discurso político sensible, sobre todo si hay menciones a funcionarios reales. Este tipo de expresiones puede generar, desde una restricción oculta del perfil, denominada “Shadowban”, hasta la suspensión e inhabilitación del perfil del usuario autor de la frase.
3. Humor negro
Expresiones que solemos usar en nuestro lenguaje cotidiano, como por ejemplo: “Con este calor, dan ganas de morirse”, “Me quiero pegar un tiro”, “Si no me responde, me mato”, son frases que el algoritmo de Instagram puede interpretar como un discurso de autolesión o incitación al suicidio y determinar la suspensión o inhabilitación de la cuenta que escribió dicha expresión.
En particular, llegó a nuestro estudio el caso de un joven que manifestó que estaría dispuesto a vender su riñón por una camiseta firmada por Messi. En este caso, su cuenta fue inhabilitada por venta de órganos. Si bien, cualquier ser humano hubiera comprendido el tono humorístico de la expresión, estamos ante sistemas automáticos no humanos tomando decisiones sobre las cuentas de los usuarios.
4. Drogas en tono irónico
Se trata de frases que hacen alusión a consumo de estupefacientes con el objeto de generar humor, como por ejemplo: “Después de este juicio necesito coca”, “Quién trae la merca para festejar”, “Esto es peor que vender falopa”, “Viva la pepa”, “La noche se presta para fumarse un porrito”. Estas generan que el sistema automatizado de Instagram, a través de su algoritmo, detecte palabras clave que pueden activar filtros algorítmicos de la red social vinculados a difusión, comercialización o apología de estupefacientes. Incluso si el uso es meramente metafórico, puede conllevar a la suspensión e inhabilitación de la cuenta del usuario autor de la frase.
5. Comunicar un aparente hecho ilícito
Finalmente, muchos usuarios emiten comentarios sobre noticias vinculadas a un ilícito, real o posible, con fines de opinar, denunciar o educar. Como ejemplo: “Eso encuadra en lavado de dinero y asociación ilícita”, “Esta persona está estafando gente con su sistema ponzi”, “Esta persona está vendiendo marihuana”. “Esto es prostitución”, etc.
Sin embargo, si bien sus afirmaciones buscan difundir el hecho, el algoritmo de la red social detecta el término asociado al delito e, irónicamente, imputa dicho delito a la persona que hizo el comentario. Así, quien en primer momento buscaba denunciar un delito, termina sufriendo restricciones o suspensiones en su cuenta por motivo de apología, promoción o acusación infundada.
¿Por qué ocurre esto?
El sistema automatizado de moderación, clasificación y prevención implementados por la inteligencia artificial de Instagram, analiza palabras clave y patrones estadísticos, sin contar con la capacidad para comprender el tono irónico y contexto cultural.
Adicionalmente, respecto a temas sensibles como violencia, drogas, sexualidad, autolesión y terrorismo, el umbral de tolerancia es muy bajo y su aceptación de contenido muy estricto.
Finalmente, la ironía, como construcción lingüística que aparenta tener un fin, pero en realidad esconde un tono gracioso, aún no llega a ser correctamente comprendida por la inteligencia artificial implementada por las redes sociales en general. En este supuesto, es altamente probable que en los años venideros la inteligencia artificial evolucione, dejando de presentar estos errores de interpretación.
Cómo reducir el riesgo
En particular, recomendamos:
Evitar verbos que reflejen violencia, aunque sea en broma.
Evitar palabras vinculadas a estupefacientes, incluso metafóricas.
No usar acusaciones directas de delitos e ilícitos.
Usar reformulación neutra, en lugar de ironía agresiva.
Separar claramente ejemplos académicos del discurso propio.
En definitiva, el problema no radica en la prohibición del discurso, sino en la dificultad técnica que hoy en día presenta la inteligencia artificial. El doble sentido, sarcasmo e ironía, son moneda corriente de nuestra habla coloquial.
Sin embargo, el algoritmo de Instagram y demás redes sociales, al operar sobre patrones estadísticos y umbrales de riesgo conservadores, tiende a prescindir de la intención del hablante, del contexto y de la sutileza pragmática o lingüística del mensaje.
Esta brecha entre lenguaje humano y procesamiento automatizado puede generar decisiones restrictivas que, aun siendo técnicamente coherentes desde la lógica algorítmica, resultan materialmente desproporcionadas frente al sentido real que el usuario buscaba dar con su comentario.
El desafío contemporáneo no consiste en eliminar la moderación digital, sino en perfeccionarla, para que los sistemas de inteligencia artificial aplicados a la moderación de contenidos puedan distinguir con mayor precisión entre riesgo efectivo y ejercicio legítimo del derecho a la libre expresión, alcanzando así un equilibrio razonable entre la integridad de la plataforma y la libertad de expresión.