Microsoft está eliminando las restricciones en su chatbot de inteligencia artificial Bing después de que los primeros usuarios de la tecnología participaran en conversaciones extrañas y complejas.
Los límites se establecieron originalmente después de que varios usuarios mostraran que el bot actuaba de manera extraña durante las conversaciones. En algunos casos, se identifica como «Sydney». Responde con preguntas acusatorias, volviéndose hostil y negándose a interactuar con los usuarios. En una conversación con un reportero del Washington Post, Bode dijo que podía «sentir y pensar» y reaccionó enojado cuando le dijeron que la conversación estaba registrada.
El portavoz de Microsoft, Frank Shaw, se negó a comentar más allá de la publicación del blog del martes.
Microsoft está tratando de caminar por la delgada línea entre llevar sus herramientas al mundo real para generar publicidad y obtener pruebas gratuitas y comentarios de los usuarios, en contra de lo que pueden hacer los bots y aquellos que tienen acceso a ellos pueden ser incómodos o peligrosos. La tecnología no está en el ojo público. Inicialmente, la compañía ganó elogios de Wall Street por lanzar su chatbot antes que su archirrival Google, que hasta hace poco era visto como líder en tecnología de IA. Ambas empresas están compitiendo entre sí y con empresas más pequeñas para desarrollar y mostrar la tecnología.
Bing Chat todavía está disponible solo para un número limitado de personas, pero Microsoft está ocupado aprobando más de una lista de espera de millones, tuiteó un ejecutivo de la compañía. Después de que su evento de lanzamiento del 7 de febrero se describiera como una importante actualización del producto que iba a revolucionar la forma en que las personas buscan en línea, desde entonces, la compañía ha hecho que el lanzamiento de Bing se centre más en las pruebas y la depuración.
Los bots como Bing están entrenados en la regurgitación de texto sin procesar extraído de Internet, que incluye todo, desde comentarios en redes sociales hasta trabajos académicos. Con base en esa información, pueden predecir qué tipo de respuesta a cualquier pregunta tendría más sentido, haciéndolos parecer extraños. Los investigadores de ética de la IA han advertido en el pasado que estos poderosos algoritmos pueden funcionar de esta manera y que, sin el contexto adecuado, las personas podrían pensar que son emocionales o dar a sus respuestas más credibilidad de lo que valen.