7 razones para no usar IA generativa en aplicaciones de mensajería

Índice
  1. 1. Los chatbots de IA tienden a alucinar
  2. 2. A la gente no le gusta hablar con bots
  3. 3. La IA no puede copiar tu tonalidad única
  4. 4. Escribir buenos mensajes lleva tiempo
  5. 5. La IA puede producir resultados ofensivos
  6. 6. La IA puede no entender el sarcasmo o el humor
  7. 7. La dependencia de la IA puede provocar una mala comunicación
  8. No todo necesita tener IA

En el campo de la IA, se están logrando avances sin precedentes y se producen nuevos avances casi todas las semanas. Las herramientas de IA generativa, como ChatGPT, son ahora tan populares que se están integrando en todas partes.

Pero ¿deberíamos hacerlo? El uso de la tecnología de IA para la productividad, la educación y el entretenimiento tiene sentido. Sin embargo, las empresas ahora están pensando en incorporarla directamente a nuestras aplicaciones de mensajería, y esto puede resultar destructivo. A continuación, se presentan siete razones por las que se debe hacerlo.

1. Los chatbots de IA tienden a alucinar

Si ha utilizado ChatGPT, Bing o Bard, sabrá que los chatbots de IA generativa tienden a "alucinar". La alucinación de la IA se produce cuando estos chatbots inventan cosas debido a la falta de datos de entrenamiento adecuados sobre la consulta solicitada por el usuario.

En otras palabras, transmiten información errónea pero parecen seguros de ello, como si fuera un hecho. Esto es un gran problema porque muchas personas no verifican los datos cuando usan un chatbot y creen que es preciso por defecto. Es uno de los mayores errores que se deben evitar al usar herramientas de IA.

Cuando se incluye en aplicaciones de mensajería, el daño que puede causar es aún mayor, ya que las personas pueden usarlo para (intencionalmente o no) difundir información errónea entre sus contactos y en las redes sociales, proliferar propaganda y fomentar cámaras de eco.

2. A la gente no le gusta hablar con bots

Vecteezy“

Piense en lo molesto que es cuando intenta comunicarse con el servicio de atención al cliente de una empresa y le obligan a hablar con un chatbot en lugar de con un ejecutivo humano real que realmente puede comprender los matices de su problema y ofrecerle la orientación adecuada.

Lo mismo se aplica a las conversaciones personales. Imagina que estás hablando con un amigo y, a mitad de la conversación, te das cuenta de que ha estado usando inteligencia artificial para responder a tus mensajes todo este tiempo en lugar de hacerlo por su cuenta en función de sus pensamientos y opiniones.

Si usted es como la mayoría de las personas, inmediatamente se sentiría ofendido y percibiría el uso de IA en una conversación privada como insensible, espeluznante e incluso pasivo-agresivo, como si la otra persona no lo considerara digno de su tiempo, atención y empatía.

El uso de la IA para escribir correos electrónicos, por ejemplo, es comprensible, ya que se trata de una interacción profesional, pero nadie querrá fomentar su uso en conversaciones personales. Una vez que la novedad de la tecnología desaparezca, será de mala educación utilizarla en este contexto.

3. La IA no puede copiar tu tonalidad única

Las herramientas de inteligencia artificial generativa ya permiten cambiar el tono de un mensaje, por ejemplo, formal, alegre o neutro, según a quién le escribas y cómo quieras transmitirlo. Magic Compose en Google Messages, por ejemplo, te permite hacer lo mismo.

Si bien eso es bueno, ten en cuenta que estas tonalidades se entrenan en función de datos de entrenamiento establecidos y no de tu historial de chat personal, por lo que no puede replicar tu tonalidad única ni los emojis que usarías habitualmente.

Es posible que esto no te importe demasiado, especialmente si usas IA para escribir correos electrónicos de trabajo sencillos para los que todos usan más o menos el mismo tono formal. Pero es mucho más importante de lo que crees cuando la usas para hablar con tus amigos y familiares en una aplicación de mensajería.

Hasta que las herramientas de IA te permitan entrenar su modelo de lenguaje en función de tu historial de chat, no podrán replicar tu dialecto y tus excentricidades únicos. Dicho esto, este desafío no es tan difícil de resolver, por lo que es posible que lo implementemos pronto.

4. Escribir buenos mensajes lleva tiempo

Obtener los resultados deseados de un chatbot de IA depende en gran medida de la calidad de su mensaje. Si escribe un mensaje incorrecto, obtendrá una mala respuesta y tendrá que refinarlo hasta obtener un resultado satisfactorio.

Este proceso tiene sentido cuando quieres escribir contenido extenso, pero es extremadamente ineficiente cuando se escriben múltiples respuestas breves en una conversación informal.

El tiempo que podría llevar refinar sus indicaciones y obtener respuestas utilizables será, en la mayoría de los casos, mayor que el tiempo que le hubiera llevado si hubiera escrito los mensajes usted mismo.

5. La IA puede producir resultados ofensivos

Además de la precisión, el sesgo es uno de los mayores problemas de la IA generativa. Algunas personas la perciben como imparcial, ya que no tiene motivos propios. Sin embargo, las personas que están detrás de estas herramientas de IA son, en última instancia, seres humanos con sus propios sesgos.

En otras palabras, el sesgo está incorporado en el sistema. La IA no entiende de manera inherente qué se considera ofensivo y qué no, por lo que, por ejemplo, se la podría entrenar para que tenga prejuicios contra ciertos grupos de personas o ciertas culturas, lo que produciría resultados ofensivos en el proceso.

6. La IA puede no entender el sarcasmo o el humor

La comprensión de la IA de las figuras retóricas, como la ironía y la metáfora, está mejorando con el tiempo, pero aún está lejos de llegar a un punto en el que se pueda utilizar en una conversación para reconocer el humor. Cuando le pedimos a Bard de Google que fuera sarcástico, por ejemplo, los resultados fueron imprecisos.

En algunos casos, era genuinamente gracioso y se avenía a mi sarcasmo, pero en otros casos, o bien volvía a una respuesta genérica y sin gracia o simplemente se negaba a participar en la conversación, diciendo que, como era solo un LLM, no podía ayudarme con mi consulta.

7. La dependencia de la IA puede provocar una mala comunicación

Otro problema sutil pero sustancial que plantea la integración de la IA generativa en las aplicaciones de mensajería es cómo puede afectar a nuestra capacidad de comunicarnos. Si cada vez dependemos más de la IA para conversar entre nosotros, puede obstaculizar nuestra capacidad de entrenar nuestra inteligencia emocional y nuestras habilidades sociales.

La cuestión es que cuanto más deleguemos nuestras necesidades sociales en la IA, peor seremos capaces de comunicar ideas a través de medios orgánicos. En otras palabras, cuanto más utilicemos la IA para hablar con nuestros contactos, más probabilidades tendremos de degradar la calidad de nuestras relaciones.

No todo necesita tener IA

A menudo, con el advenimiento de una nueva tecnología, estamos tan ocupados tratando de descubrir cómo usarla que no nos planteamos si deberíamos utilizarla en primer lugar.

Si bien tiene todo el sentido utilizar IA generativa para escribir correos electrónicos, generar ideas o crear imágenes para presentaciones, su integración en aplicaciones de mensajería genera muchas críticas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir