Puedes decir solo una palabra para demostrar que no eres un robot. ¿Cuál será?

Curiosidades
hace 5 años

En 1950, a Alan Turing se le ocurrió una prueba diseñada para diferenciar a un robot de un ser humano. En ese momento, ni siquiera se sospechaba que en el siglo XXI sería posible pedirle a un asistente de búsqueda de un teléfono inteligente que encontrara algo, y que la inteligencia artificial podría escribir canciones y evaluar la popularidad de tus futuras publicaciones en Instagram.

En nuestro tiempo, los científicos han ido aún más lejos y han realizado un experimento que se llamó “Test mínimo de Turing”. Los participantes tenían que imaginar que estaban parados junto a un robot frente a un juez. El juez no sabía quién era quién, pero debía matar al robot. Para probar que no eres una máquina, tenías que elegir una palabra qué decirle al juez. Y Genial.guru ha decidido implementar su propia versión del experimento, cuyos resultados te esperan en la segunda mitad del artículo.

¿Quién hizo el experimento y qué palabras lideraban?

Primero, los científicos encuestaron a unos 1 000 participantes en línea. Las palabras más populares en esta etapa del experimento fueron las asociadas con las emociones: “amor”, “gracias” (aproximadamente 2,7 %). Muchos nombraron emociones abstractas, comida, las palabras “Dios” y “Jesús”, robots y animales, la familia. En la cima de la popularidad estuvieron las palabras “alma”, “humano”, “por favor”.

También hubo palabras inusuales, expresiones inventadas, jerga, abreviaturas: yolo, noob, oops, lol, omg. Tampoco faltó “Terminator”.

Los científicos enfatizaron que es difícil hacer que un “Test mínimo de Turing” sea seguro, porque en realidad no ayudaría al juez a determinar con alto grado de precisión quién era una persona y quién, un robot. Después de entrevistar a 1 000 participantes, los autores del experimento fueron más lejos y pidieron a unos nuevos sujetos que evaluaran pares de palabras que se formaron a partir de las respuestas. La tarea era identificar cuál de las dos palabras había dicho una persona y cuál había sido generada por un robot o por inteligencia artificial (los participantes del experimento no sabían que ambas palabras habían sido dichas por una persona). Después de evaluar estos pares de palabras, la más “humana” fue “popó”: poop.

Decidimos repetir este experimento

Dado que solo los participantes de habla inglesa participaron en el experimento original, lo repetimos con la audiencia de habla hispana para comparar los resultados. Para esto fueron entrevistadas cerca de 70 personas. Además, decidimos ver cómo cambiaría el estado de ánimo de los participantes, si el juez no les creyera la primera vez y la situación se tensara. Cambiamos ligeramente las condiciones del experimento: a nuestros sujetos se les ofrecieron 3 oportunidades en lugar de una.

Las respuestas más frecuentes entre la audiencia encuestada fueron las palabras inventadas: “pegariñoso”, “viejoven”, “procrastudiar”. Es difícil que estas palabras estén incluso en la base más amplia de un robot, ya que no están registradas en los diccionarios, pero generalmente podemos captar su significado. También había palabras inventadas cuyo significado debía ser descifrado: “Yo diría la palabra ’truskus’. Es una palabra de nuestra familia, la usamos para describir algo que no ha ido bien, por ejemplo: ’Qué día más truskus’”. Uno de los participantes propuso usar la palabra inventada de Stephen Kingcapugante”.

De forma igual de activa se proponían palabras con sufijos diminutos, suponiendo que un robot probablemente no las usaría: “ahorita”, “permisito”. También se nombró activamente la comida, y también con sufijos: “papita”, “carnita”. Entre las palabras que coincidieron con la audiencia de habla inglesa se estaban las opciones más populares del experimento original: “amor”, “alma”, “mamá” e “imaginación”.

Muchos, en el segundo o tercer intento, asumieron que dirían algo obsceno (algunos participantes hasta iban a crear una expresión inventada de varias palabras obscenas, suponiendo que las expresiones obscenas comunes ya podían estar en la base de la inteligencia artificial).

Algunos participantes del experimento no solo apostaban al significado de lo que se decía, sino también a la emotividad que expresarían:

  • “Habría señalado al robot con el dedo, habría mirado fijamente a los ojos del juez y había dicho: ’¡Falsificación!’. Y lo habría hecho de una manera en que ningún robot podría hacerlo: emocionalmente.
  • “Como opción: ’¡achis!’. Empiezo a decir: ’Verá, su señoría... ¡Achis!... Quería decir...’. El juez: ’¡No continúe, el caso está cerrado!’”.

Muchos simplemente usaban palabras con un color emocional (“aturdido”, “vibrante”, “glorioso”) o simplemente palabras inquisitivas (“¿condenará?”, “¿firmo?”). Algunos escogieron expresiones que significaban algo para ellos: “nombraría mi ciudad”, “diría mi nombre”, “diría el nombre de la persona que amo. Aunque no... el nombre de mi gato. Sí”.

Y hubo algunas personas que optaron por simplemente quedarse calladas. Uno de los participantes explicó esto por el hecho de que un robot no podría desobedecer la orden del juez (si estaba programado así, por supuesto), por lo que diría algo fuera como fuera. Mientras que el silencio le demostraría al juez que el que estaba frente a él era un humano. Otro participante del experimento eligió el silencio simplemente porque era inútil decirle algo al juez, porque a la inteligencia artificial actual se le puede enseñar a usar tanto el lenguaje grosero como las palabras inventadas, y cualquier otra cosa en general.

Uno de los participantes habría dicho de tercera opción el apellido ruso “Stanislavski” (si el juez le hubiese respondido “no te creo” a las opciones de respuesta anteriores). Aunque lo más probable era que el robot tuviera ese apellido en la base de datos, probablemente no habría podido construir la cadena lógica necesaria para llegar a esa palabra, y habría una oportunidad de salvación. Otro participante, habría dicho de tercera opción la palabra “daño”, argumentando que el robot no diría una palabra “perdedora”. Solo generaría las mejores opciones, y así el juez podría saber quién era el humano.

Al final del experimento, los científicos enfatizaron que el mismo se podía usar para verificar otros estereotipos. ¿Qué palabra, en opinión de la gente, diría una mujer o un anciano? A pesar del desarrollo de la inteligencia artificial, que hoy en día parece ser capaz de cualquier cosa, los participantes tanto de habla inglesa como de nuestro experimento pudieron encontrar opciones que ni el robot más inteligente podía mencionar. No es tan fácil inventar una palabra o hacer una expresión de varias palabras existentes que tendrán sentido al ser escuchadas con una sola. Por otro lado, si solo hubiera que decir palabras del diccionario, sería casi imposible distinguir a una persona de un robot inteligente. En este caso, sería mejor elegir otros métodos de verificación.

¡Y lo más interesante! ¿Qué dirías tú en una situación así?

Comentarios

Recibir notificaciones
Aún no hay comentarios. ¡Puedes ser el primero!

Lecturas relacionadas