Jaime Gómez-Obregón@JaimeObregon
¡Qué interesante, amigos! 😃
El hallazgo de @GDomenechP expone cómo —probablemente, no es seguro— una máquina ha generado una argumentación fundamentalmente errónea pero tan formalmente coherente que ha sorteado el control del autor que la remite, de la editorial que la publica y —no me extrañaría— buena parte del público lector.
Y es que ahora, por primera vez, consumir una obra intelectual o artística supone una inversión mayor que producirla con medios automáticos. Leer requiere más esfuerzo que escribir. ¡El mundo al revés! Esto es radicalmente nuevo en la historia de la Humanidad.
Esto le da a uno pie a hacerse preguntas nuevas: ¿qué sentido tiene incurrir en el esfuerzo personal de leer algo cuando ni el autor ni la editorial han incurrido en el de hacer una mínima revisión crítica?, ¿qué es y quién confiere exactamente el «prestigio» que al autor o a su editorial se les supone?, ¿cómo identificar las lecturas que merecen la pena en este creciente océano de spam y slop artificial en el que todo es urgente, ✨llamativo✨, sensacional?
Sobre esto último, me gusta pensar en el concepto de «confianza epistémica»¹, que proviene de la psicología: la obra estará ahora más soldada que nunca al autor, su personalidad y su «prestigio», y la estrella polar en el océano de contenido generado es la confianza en la persona, esa parcela que las máquinas aún no nos han arrebatado del todo.
Hace unas semanas anunciaba el ICAM su propuesta² de modificar el Código Penal para castigar el diseño, la comercialización e incluso la publicidad de herramientas informáticas que, sin la intervención directa de un colegiado o habilitado, asistan en trabajos de profesiones reguladas.
Personalmente no le veo sentido a la propuesta del ICAM, pero si al temor que parece que la causa, y que esta mañana señalaba Gabriel.
Creo que mitigar la brecha de confianza que apunta Gabriel tiene una solución relativamente sencilla, pero que es responsabilidad individual de cada cual que decida asistirse de la IA: entender cómo funciona un modelo de lenguaje.
Dedicar unas horas a aprender —basta que sea por encima— cómo se entrena una red neuronal, con qué corpus documentales se alimenta, cómo funciona el proceso de inferencia o cómo se ajustan los modelos mediante humanos que orientan qué y cómo responderá la máquina.
Entender esto es sorprendentemente simple, y le brinda a uno el superpoder de entender en qué puede confiar cuando interroga a una IA y en qué debe, necesariamente, someter a juicio sus respuestas.
Así, y cuando programo con IA, puedo anticipar con bastante exactitud qué respuestas serán seguramente óptimas y cuáles serán probablemente derrapes y alucinaciones que tendré que revisar con más atención (¡o con otro agente de IA!).
Y este conocimiento es muy útil en las dos direcciones: sirve para asistirse con la IA de manera más confiable, pero también para rechazar con mejor criterio las posiciones maximalistas del estilo de «ya, pero es que la IA se equivoca, luego no se puede confiar en la IA», que a mi juicio es —junto, quizá, a un cierto temor al reemplazo— la intuición última que parece que motiva la propuesta del ICAM.
Y este mazacote lo escribe un tipo que lleva 30 años escribiendo software 😃 y en los últimos tres meses ha visto que ya no volverá a hacerlo, porque las máquinas lo hacen ya más rápido y mejor. Crisis existencial que induce más, pienso yo, a adaptarse que a resistirse.
(Ladrillo escrito por este humilde servidor de ustedes; todas las erratas y errores son humanos… ¡demasiado humanos! 🙃)
___
¹ x.com/JaimeObregon/s…
² web.icam.es/el-icam-propon…