La editorial especializada en el ámbito jurídico Wolters Kluwers ha presentado la obra “Ellas. Retos, amenazas y oportunidades en un mundo conectado” en el que 19 autoras revisan aspectos tecnológicos, económicos, éticos y legislativos de la nueva sociedad digital en la era de las redes sociales, la inteligencia artificial y los “objetos conectados” o IoT. La obra, escrita exclusivamente por mujeres expertas en distintos campos, ha sido coordinada por Paloma Llaneza y en su presentación hemos podido conversar con Sara Molina Perez-Tomé, consultora en transformación digital, que ha escrito el capítulo “Robots que piensan y se emocionan” en el que se abordan aspectos de la inteligencia artificial que pueden pasar desapercibidos como la ética de las emociones y la inteligencia artificial (es decir si la inteligencia artificial debería poder “fingir emociones”) y otros temas como los sistemas de aprendizaje y conocimiento.
La obra incluye también un capítulo dedicado a los “chatbots” o asistentes inteligentes que interactúan con lenguaje natural, bien por voz o mediante mensajes, y que ya se están incorporando (con un éxito a veces cuestionable) en muchas organizaciones como sistemas de soporte, para acciones de márketing, atención al cliente y muchos otros. Para Sara Molina, aunque la inteligencia artificial es una de las tecnologías más de moda y que los fabricantes tratan de ofrecer como herramienta de transformación, “no es aplicable a toda las estructuras empresariales”, ya que tienen que ser organizaciones que hagan un uso masivo de datos.
Inteligencia Artificial y emociones: cuidado con la manipulación
Por otro lado, como explica la experta, uno de los terrenos más espinosos es el que tiene que ver con las emociones y la inteligencia artificial. Evidentemente, todavía estamos lejos de de que las máquinas puedan tener conciencia, aunque sí se les puede enseñara a tener cierto grado de autoconocimiento. Sin embargo, el peligro es que es relativamente fácil enseñar a una inteligencia artificial a reconocer emociones (algo que ya se aplica por empresas para conocer por ejemplo el “sentimiento” del público hacia las marcas) y lo que es más peligroso, a fingir emociones: lo que abre las puertas a que los humanos podamos ser manipulados emocionalmente por una inteligencia artificial. No obstante, aunque “la empatía de las máquinas se puede programar” como se está viendo ya en asistentes digitales de voz que responden a cuestiones banales a modo de broma; se está utilizando fundamentalmente para hacer que los asistentes sean más “amigables”.