La IA y los casos de borde, o "el estrés de tener que pensar como una máquina para poder controlarla".

 
La IA y los casos de borde, o "el estrés de tener que pensar como una máquina para poder controlarla".

Hay una experiencia que quienes somos programadores y a vez también usuarios avanzados de IA conocemos bien, pero de la que casi nadie habla: el "debug infinito desde el primer prompt".
No me refiero a errores obvios: me refiero a lo que pasa cuando trabajás "en el borde": entornos "poco mainstream", tecnologías muy maduras pero no prolíficas, configuraciones que existen desde hace décadas, que tienen documentación sólida, pero que no son "el caso de uso que entrenó al modelo".
Un ejemplo concreto: pedirle a un LLM ayuda para configurar un firewall en Windows, es una solicitud que seguramente posea una tasa de error cercana a cero. Pedirle que escriba un "frontend" básico para "nftables" o peor aún, para "iptables" bajo Runit, en distribuciones Linux "raras" como Crux, Void, Artix o Alpine, ya es otra historia: no porque sea intrínseca y necesariamente más difícil, sino porque esas distribuciones son "de nicho", deliberadamente minimalistas, con sistemas de init alternativos a "systemd", mantenidas por comunidades y no por corporaciones. Existe excelente documentación sobre éstas, pero la misma está dispersa en Internet, y los LLMs aprenden de lo que abunda, no de lo que existe.
Y es entonces cuando la IA no nos dirá que no sabe.
La IA generará código con confianza.
Y lo que generará parecerá correcto, aunque sin serlo.
Y cuando falle, el siguiente movimiento automático e irreflexivo del modelo será sospechar de tu entorno, de tu "configuración particular", de la reinstalación de un determinado paquete, pero nunca de sí mismo, hasta que se lo hagas ver y le pidas que se enfoque, mientras se van malgastando los "tokens" y se va diluyendo el contexto inicial: la charla se irá tornando arborescente y jamás volverá a bajar a la raíz, lugar desde el cual nunca debió haberse desviado.
El resultado es un tipo de estrés muy específico: llegás a cada sesión ya en modo escéptico, controlador, en "modo militar" y listo para discutir y ver todo en blanco y negro.
Empezás a pensar como una máquina para poder controlar a la máquina, no como un ser humano que viene de manera confiada a utilizar a su asistente digital.
No se trata de colaboración ni de ayuda "limpia": ya es supervisión constante.
Y esto tiene un costo real en tiempo, en salud anímica, en "cabeza".
Lo que me llama la atención es la diferencia de percepción entre quienes operamos así y la mayoría de los usuarios, que tienen experiencias mucho más fluidas porque sus casos de uso están en el centro del entrenamiento, no en el borde. Para ellos la IA "funciona genial." Y tienen razón; pero esa experiencia mayoritaria termina definiendo el relato público sobre qué tan confiable es la herramienta, cuando los casos de borde que manejamos otros dicen exacta, medible, justificada y demostrablemente lo contrario.
Los que vivimos en el borde sabemos otra cosa. Y generalmente, sabemos bastante más también.
¿También vos operás en ese espacio?
¿Cómo lo gestionás?

Publicado en el espacio personal de LinkedIn de Hugo Napoli:
Ver publicación

0 Comentarios:

Publicar un comentario

Flag Counter Visitas previas a la existencia de este contador: 3433

Artículos aleatorios

    Páginas: