Señales reveladoras de que algo ha sido escrito por ChatGPT
Hace poco, me encontré con una publicación de LinkedIn en la que se discutían las señales reveladoras de que ChatGPT ha generado un escrito. A medida que se desarrollaba la conversación, y otros añadían sus propias observaciones, decidí recopilar y compartir las ideas de este artículo.
Si bien no puedo encontrar la publicación original que acredite adecuadamente al autor, varios puntos destacaron y me llevaron a profundizar más:
- Uso de la coma Oxford
- Guiones sin espacios
- Hashtags en mayúscula
- El cohete emoji 🚀
Contribuciones humanas a la lista
La comunidad de LinkedIn tenía mucho que decir al respecto. Las siguientes adiciones provienen de quienes comentaron mi publicación:
- Uso frecuente de contracciones
- Palabras floridas y demasiado dramáticas como:
- Profundizar
- Da rienda suelta
- Reino
- Títulos donde «Todas las primeras letras están en mayúscula»
- Desde una perspectiva no estadounidense: ortografía estadounidense, como comportamiento contra comportamiento, realización contra realización, trabajo contra trabajo y color contra color
- Escritura que parece «convencional» o robótica: carece de personalidad, es demasiado pulida o impersonal
- Uso de símbolos como ## o **
- Emojis más allá del cohete
La perspectiva de ChatGPT
Para divertirme, le pedí a ChatGPT su opinión sobre cómo las personas ven su trabajo. Esto es lo que ofrecía:
- Un tono demasiado equilibrado y neutro
- Excesiva cortesía
- Formato estructurado y con fórmulas
- Repetición de puntos clave
- Construcción formal de oraciones
- Uso coherente del lenguaje inclusivo
- Frases y modismos predecibles y estandarizados
- Resúmenes frecuentes
- Confianza en la terminología relacionada con la IA
Si bien la lista es bastante completa, es divertido que incluso la IA pueda identificar de alguna manera su propio estilo, pero quizás no a la perfección.
Cómo probar que algo no fue escrito por ChatGPT
Irónicamente, mientras escribía este artículo, me di cuenta de que originalmente había escrito mal «revelador» como «revelador» en mi publicación de LinkedIn. Un simple error como ese podría ser uno de los indicadores más claros de que un humano está detrás del teclado, ¡no de ChatGPT!
En conclusión
Reconocer si el contenido es generado por la IA es un desafío cada vez mayor, pero detectar pequeñas peculiaridades y tendencias estilísticas, tanto humanas como automáticas, puede ofrecer pistas. Desde contracciones y elecciones creativas de palabras hasta errores sutiles, a menudo podemos saber si un humano o una IA han tomado la iniciativa. Y, por supuesto, el error humano, al igual que una palabra mal escrita, puede ser un claro indicio.
Enlace a la publicación original
Puedes encontrar la publicación original de LinkedIn aquí. Si tiene algo que agregar, hágalo y actualizaré este artículo en el futuro.
Kirsty Núñez es el presidente y principal estratega de investigación de Q2 Insights, una firma de consultoría de investigación e innovación con alcance internacional y oficinas en San Diego. Q2 Insights se especializa en muchas áreas de la investigación y el análisis predictivo, y utiliza activamente productos de inteligencia artificial para mejorar la velocidad y la calidad de la entrega de información y, al mismo tiempo, aprovechar los conocimientos y la experiencia de los investigadores humanos.