🚨 ChatGPT te miente el 27% del tiempo y no tienes idea.


un abogado literalmente perdió su carrera confiando en citas legales generadas por IA que fueron completamente inventadas. las presentó en la corte. el juez se enteró. carrera terminada.
pero esto es lo que la mayoría de la gente no sabe..
los investigadores de Johns Hopkins probaron 1,200 indicaciones y descubrieron que cómo prompts cambia todo.
prompting básico: tasa de alucinaciones del 27.3%
instrucciones genéricas como "sé preciso": 24.1%.. apenas ayuda
ahora aquí está la solución:
simplemente agrega "según" antes de tu pregunta.
en lugar de: "¿cuáles son los beneficios para la salud del magnesio?"
intenta: "según investigaciones revisadas por pares, ¿cuáles son los beneficios para la salud del magnesio?"
la tasa de alucinaciones cae al 7.2%.. eso es una reducción de 20 puntos porcentuales con un pequeño cambio.
el método de atribución de fuentes funciona igual.. 7.2%.
el truco es simple.. cuando obligas a la IA a atribuir sus afirmaciones a algo específico, no puede inventar cosas tan fácilmente. o encuentra la fuente o te dice que no sabe.
dos palabras. 20% menos mentiras.
la mayoría de la gente seguirá prompting de manera perezosa. ahora tú no.
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado