Hay mecanismos que permiten modelar la IA para que genere texto con distintas voces e incluso con una voz semejante a la tuya (si es que tienes escritos suficientes para que aprenda); el problema es que hay una mayoría que ni siquiera se toma la molestia de trabajárselo un mínimo.
Todo esto para decir que sí, los textos generados por LLMs en español tienen una cadencia muy particular y una pedantería muy poco común hace tres años. Cuando te acostumbras a verlo, no puedes evitarlo. Si tienes dudas, hay webs que son capaces de evaluar textos y juzgar lo probable que estén escritos con IA en función de esas características reconocidas (por ejemplo, https://quillbot.com/ai-content-detector ).
No me importa que la gente escriba directamente con IA, pero por lo menos que lo admita abiertamente.
Javier, querido tocayo, te he descubierto hace poco y gracias a esta publicación tan genuina siento en mi imaginería, y como dirían aquellos en el final de la película, que este puede ser el inicio de una bonita amistad (por mi parte, todo sea dicho). ¡Un abrazo!
Me alegro, tocayo. Siempre es positivo encontrar resonancia en gente con intereses afines, mientras mantengamos la fricción suficiente en discrepancias para hacernos crecer o, como mínimo, para entretenernos y disfrutar del camino.
Y para cuándo el octavo acto? Claro, las lenguas siguen siendo sistemas complejos y adaptativos, pero el motor biológico ya está siendo sustituido. La gente joven ya lee menos y delega cada vez más la producción textual a LLMs que tienden a la media estadística.
La justicia poética fue posible porque había humanos en el loop durante el RLHF. Los últimos modelos ya prescinden de ellos, usan datos sintéticos generados en pre-entrenamiento, retroalimentación sintética (RLAIF), o destilan modelos preexistentes (Deepseek y Minimax de Claude 4.5, por ejemplo).
En el mejor de los casos, será una transición de fase a una escala de mayor complejidad lingüística. Una simulación (o traducción de la realidad) dentro de otra...
Para quien tenga curiosidad sobre el tema, y la piel más bien gruesa, aquí hay una entrevista excelente con la presidenta de la asociación de trabajadores de datos en África:
Maravilloso. ¿Te consta que algo parecido haya pasado con el español en la IA?
Ya quisiera yo percibir la elegancia del castellano colombiano o mexicano... De momento no me lo parece.
Hay mecanismos que permiten modelar la IA para que genere texto con distintas voces e incluso con una voz semejante a la tuya (si es que tienes escritos suficientes para que aprenda); el problema es que hay una mayoría que ni siquiera se toma la molestia de trabajárselo un mínimo.
Todo esto para decir que sí, los textos generados por LLMs en español tienen una cadencia muy particular y una pedantería muy poco común hace tres años. Cuando te acostumbras a verlo, no puedes evitarlo. Si tienes dudas, hay webs que son capaces de evaluar textos y juzgar lo probable que estén escritos con IA en función de esas características reconocidas (por ejemplo, https://quillbot.com/ai-content-detector ).
No me importa que la gente escriba directamente con IA, pero por lo menos que lo admita abiertamente.
¡Gracias!
Javier, querido tocayo, te he descubierto hace poco y gracias a esta publicación tan genuina siento en mi imaginería, y como dirían aquellos en el final de la película, que este puede ser el inicio de una bonita amistad (por mi parte, todo sea dicho). ¡Un abrazo!
Me alegro, tocayo. Siempre es positivo encontrar resonancia en gente con intereses afines, mientras mantengamos la fricción suficiente en discrepancias para hacernos crecer o, como mínimo, para entretenernos y disfrutar del camino.
Hola!
Muy elegante. Una ironía histórica genuina.
Y para cuándo el octavo acto? Claro, las lenguas siguen siendo sistemas complejos y adaptativos, pero el motor biológico ya está siendo sustituido. La gente joven ya lee menos y delega cada vez más la producción textual a LLMs que tienden a la media estadística.
La justicia poética fue posible porque había humanos en el loop durante el RLHF. Los últimos modelos ya prescinden de ellos, usan datos sintéticos generados en pre-entrenamiento, retroalimentación sintética (RLAIF), o destilan modelos preexistentes (Deepseek y Minimax de Claude 4.5, por ejemplo).
En el mejor de los casos, será una transición de fase a una escala de mayor complejidad lingüística. Una simulación (o traducción de la realidad) dentro de otra...
Para quien tenga curiosidad sobre el tema, y la piel más bien gruesa, aquí hay una entrevista excelente con la presidenta de la asociación de trabajadores de datos en África:
https://youtu.be/OXSMqRfP9Bg?si=j90NQvKosM5BALV9&t=264
Que interesante, super completo y muy ameno.Muchas gracias
Muchas gracias, Van. Es un disfrute que así lo aprecies. ¡Compártelo! 😊