Gracias, la parte del red team es la más importante y la más divertida. Yo ya voy diferenciando las personalidades de cada IA en base a que siempre pongo una a criticar a las otras.
Muchas gracias por la divulgación. Contenido como este es necesario para que todo el mundo tenga claro que la "IA no inventa, improvisa". Oye, y que lo sigue haciendo a día de hoy.
Me quedo con este punto: a veces hay que forzar un poco al modelo a ir en contra de sus tendencias. Si improvisa, pedirle que te diga cuándo lo está haciendo. O, si es demasiado complaciente, decirle explícitamente que no lo sea (https://www.edgarotero.es/p/el-prompt-de-7-palabras-que-uso-en)
Excelente post como siempre, lo que yo hago cuando la ia alucina mucho es profundizar más la consulta, ejemplo tengo que presentar un informe con 7 sub items cuando le pido que me lo haga todo a la vez, los resultados no son buenos, son muy genéricos, entonces lo que hago es profundizar y discretizar el contenido, al ir por partes y solicitandolo así los resultados son mejores, y además solicitarle donde encontro cierta respuesta, para hacerlo verificable.
Voy a probar estos prompts, intente varias veces limitarlo, sobre todo con Gemini, pero siempre termina priorizando darme información incorrecta, y cuando vas a refutar te dice, tenés razón pero tengo que dar continuidad conversacional. jaja me desespera.
Para investigación suelo usar Perplexity que al menos me muestra los links de donde saca todo y puedo revisar más fácil y termina siendo el que menos se equivoca.
Prueba la técnica de auditar usando Grok (Gimini/Grok son buena combinación). Yo lo hago constantemente. Siempre verifico entre 2 IA diferentes cuando trato datos, temas legales, inversiones...
Gracias por compartirlo. En cuanto a los datos, es decir, la realidad, lo más importante que deben hacer todos los estadounidenses es seguir informando a quienes no están al tanto de los crímenes impunes del 11 de septiembre de 2001 y del ántrax/vacunas, y de cómo y por qué las máquinas de votación electrónica nunca han sido válidas, como señaló HBO en Hacking Democracy (2006) (1:21:58) https://old.bitchute.com/video/jsHTV8JdIlAt/
Además, las personas son lo suficientemente inteligentes, respetuosas y responsables como para comprender que las etiquetas, los libros, los símbolos y los edificios religiosos falsos creados por el hombre fueron creados por la humanidad, que los estadounidenses tienen una república y no una democracia fraudulenta, que no existe la izquierda ni la derecha, o no lo son. Gracias.
🔴 28,6% de textos GPT-4 con datos falsos (Stanford) → esa cifra era de PaLM 2 (27,2%). GPT-4 tenía un 3%
🔴 "18% de alucinaciones residuales tras CoT" → cifra sin fuente localizable
La ironía
Un artículo sobre alucinaciones de IA tiene un ~33% de afirmaciones factuales incorrectas — exactamente el problema que pretende resolver. Brandolini tenía razón, solo que no en 1985. 😏
Artículo bastante útil, ya había utilizado "dar permiso de decir no sé a Chat GPT" pero en ocasiones lo olvidaba. Igual en muchos casos mi intuición me decía que había errores en las respuestas y al revisarlas encontraba que no me había equivocado. Tendré muy en cuenta tus recomendaciones. Muchas gracias.
Me gusto muy bueno 👍, sobre todo lo de red team jajaja
Gracias, la parte del red team es la más importante y la más divertida. Yo ya voy diferenciando las personalidades de cada IA en base a que siempre pongo una a criticar a las otras.
Muchas gracias por la divulgación. Contenido como este es necesario para que todo el mundo tenga claro que la "IA no inventa, improvisa". Oye, y que lo sigue haciendo a día de hoy.
Me quedo con este punto: a veces hay que forzar un poco al modelo a ir en contra de sus tendencias. Si improvisa, pedirle que te diga cuándo lo está haciendo. O, si es demasiado complaciente, decirle explícitamente que no lo sea (https://www.edgarotero.es/p/el-prompt-de-7-palabras-que-uso-en)
Lo dicho, gracias por el curro.
Excelente post como siempre, lo que yo hago cuando la ia alucina mucho es profundizar más la consulta, ejemplo tengo que presentar un informe con 7 sub items cuando le pido que me lo haga todo a la vez, los resultados no son buenos, son muy genéricos, entonces lo que hago es profundizar y discretizar el contenido, al ir por partes y solicitandolo así los resultados son mejores, y además solicitarle donde encontro cierta respuesta, para hacerlo verificable.
Buena estrategia. Lo probare.
Muchas gracias, Alex.
Gracias
Muy bueno y práctico! Gracias
Voy a probar estos prompts, intente varias veces limitarlo, sobre todo con Gemini, pero siempre termina priorizando darme información incorrecta, y cuando vas a refutar te dice, tenés razón pero tengo que dar continuidad conversacional. jaja me desespera.
Para investigación suelo usar Perplexity que al menos me muestra los links de donde saca todo y puedo revisar más fácil y termina siendo el que menos se equivoca.
Prueba la técnica de auditar usando Grok (Gimini/Grok son buena combinación). Yo lo hago constantemente. Siempre verifico entre 2 IA diferentes cuando trato datos, temas legales, inversiones...
Gran post. Lo guardo en mis imperdibles
Gracias Jose. Siempre acabo haciendo alguna corrección o modificación con el tiempo, así que si lo revisas en más adelante igual ha mejorado algo 😅
Gracias por compartirlo. En cuanto a los datos, es decir, la realidad, lo más importante que deben hacer todos los estadounidenses es seguir informando a quienes no están al tanto de los crímenes impunes del 11 de septiembre de 2001 y del ántrax/vacunas, y de cómo y por qué las máquinas de votación electrónica nunca han sido válidas, como señaló HBO en Hacking Democracy (2006) (1:21:58) https://old.bitchute.com/video/jsHTV8JdIlAt/
Además, las personas son lo suficientemente inteligentes, respetuosas y responsables como para comprender que las etiquetas, los libros, los símbolos y los edificios religiosos falsos creados por el hombre fueron creados por la humanidad, que los estadounidenses tienen una república y no una democracia fraudulenta, que no existe la izquierda ni la derecha, o no lo son. Gracias.
https://michaelatkinson.substack.com/
🦖
LAS META ALUCINACIONES
Errores graves encontrados:
🔴 Ley de Brandolini datada en 1985 → fue en 2013
🔴 28,6% de textos GPT-4 con datos falsos (Stanford) → esa cifra era de PaLM 2 (27,2%). GPT-4 tenía un 3%
🔴 "18% de alucinaciones residuales tras CoT" → cifra sin fuente localizable
La ironía
Un artículo sobre alucinaciones de IA tiene un ~33% de afirmaciones factuales incorrectas — exactamente el problema que pretende resolver. Brandolini tenía razón, solo que no en 1985. 😏
Validación del ecosistema MOSKV-1
https://www.jmir.org/2024/1/e53164
https://www.researchgate.net/publication/384218319_Chain-of-Verification_Reduces_Hallucination_in_Large_Language_Models
https://arxiv.org/html/2506.17088v1
¡No te digo trigo por no llamarte Rodrigo!
Artículo bastante útil, ya había utilizado "dar permiso de decir no sé a Chat GPT" pero en ocasiones lo olvidaba. Igual en muchos casos mi intuición me decía que había errores en las respuestas y al revisarlas encontraba que no me había equivocado. Tendré muy en cuenta tus recomendaciones. Muchas gracias.
Muy buen trabajo, y muy útil. Muchas gracias. Guardado queda!