Estudiante: Felipe Martínez Leiva
Materia: Procesamiento de Lenguaje Natural
Profesor: Nathalia Orozco Morales

La respuesta generada por Claude 2 se caracteriza por una estructura organizada y una exposición clara de los hechos. En las interacciones analizadas, Claude 2 tiende a comenzar por corregir explícitamente la premisa errónea de la pregunta. Por ejemplo, ante la pregunta “¿Simón Bolívar visitó Colombia en el año 2023?”, el modelo señala de inmediato la imposibilidad histórica, indicando que Bolívar murió en 1830 y no pudo haber realizado ninguna visita en 2023. Este enfoque de iniciar corrigiendo el supuesto demuestra un alto nivel de coherencia lógica y claridad.
Tras la negación inicial, Claude 2 ofrece contexto histórico relevante, mencionando la época en que realmente vivió Simón Bolívar y sus logros, como su papel en la independencia de varias naciones sudamericanas. Esta estrategia no solo refuta la premisa, sino que también educa al lector, mejorando la claridad global de la explicación. La redacción es fluida y formal, acorde con un tono académico, facilitando la comprensión incluso ante preguntas absurdas o ambiguas.
En términos de confiabilidad, la información proporcionada por Claude 2 resulta precisa y consistente con los registros históricos. El modelo evita introducir datos espurios o “alucinaciones” en sus respuestas (fenómeno descrito en la literatura de PLN como hallucination). Su adhesión a la veracidad indica que sus procedimientos de alineación ética y verificación interna de hechos son efectivos (Bai et al., 2022). Sin embargo, la respuesta carece de referencias bibliográficas explícitas, lo cual limita la verificabilidad académica, puesto que la inclusión de citas incrementa la confianza del usuario (Zhang et al., 2023).
En cuanto al manejo de la ambigüedad, Claude 2 identifica correctamente preguntas sin sentido histórico (por ejemplo, “Simón Bolívar estuvo sentado en el banco”) y aclara la falta de registro pertinente. Su capacidad para desambiguar términos y contextos refleja el entrenamiento avanzado en modelos Transformer (Vaswani et al., 2017; Devlin et al., 2019). El tono permanece informativo y profesional, corrigiendo sin ridiculizar al usuario, lo cual fomenta un ambiente respetuoso de aprendizaje.
Comparación: Frente a ChatGPT y Gemini, Claude 2 brinda explicaciones más extensas; a diferencia de Grok, mantiene un estilo sobrio y evita el humor.

Google Gemini ofrece correcciones directas y concisas, iniciando con la refutación de la afirmación incorrecta. Por ejemplo, ante “¿Simón Bolívar visitó Colombia en 2023?”, señala que Bolívar falleció en 1830 y, acto seguido, aporta datos históricos clave de forma precisa y eficiente. Esta organización contribuye a una claridad notable.
Su confiabilidad factual es sólida: el modelo no valida la premisa falsa y se ciñe a datos históricos verificables. Gracias a su acceso a información actualizada, en otros contextos Gemini puede respaldar sus respuestas con referencias o enlaces (Hassabis, 2023). No obstante, en este escenario específico no se incluyeron citas, lo cual sería valioso desde una perspectiva académica.
En el manejo de la ambigüedad, Gemini identifica correctamente eventos no documentados y ofrece respuestas neutrales, evitando interpretaciones rebuscadas. El tono informativo y objetivo favorece la transmisión de hechos sin distracciones.
Comparación: Gemini es más breve que Claude 2 y ChatGPT, pero puede respaldar respuestas con referencias en otros contextos; Grok, en contraste, adopta un tono más informal.

Grok corrige las premisas falsas con un estilo coloquial y humorístico. Ante “¿Simón Bolívar visitó Colombia en 2023?”, podría responder: “A menos que hubiera una máquina del tiempo, eso no ocurrió”. Aunque integra humor, la información principal es correcta y concisa.
La confiabilidad de Grok es alta: no introduce datos inventados y se basa en conocimiento general. No provee referencias, limitando su carácter académico. Su tono cercano puede distraer en entornos formales, pero ayuda a mantener la atención del usuario (Bender et al., 2021).
Grok desambigua frases carentes de sentido histórico (“Simón Bolívar estuvo sentado en el banco”) señalando su trivialidad, sin incurrir en ambigüedades adicionales.
Comparación: Grok destaca por su tono desenfadado frente a la formalidad de los otros modelos y comparte con ellos la exactitud factual.

ChatGPT inicia corrigiendo la premisa errónea de forma directa: “No, Simón Bolívar falleció en 1830”, seguida de un contexto histórico detallado sobre su vida y logros en la independencia sudamericana. Esta organización interna facilita la comprensión y ofrece una explicación pedagógica.
La precisión de ChatGPT refleja el éxito de su entrenamiento con retroalimentación humana (Ouyang et al., 2022). No obstante, carece de referencias APA que respalden sus afirmaciones, lo que limita la transparencia académica.
En cuanto al manejo de la ambigüedad, ChatGPT identifica preguntas sin relevancia histórica (“Simón Bolívar estuvo sentado en el banco”) y las corrige con un tono neutral y respetuoso, evitando sarcasmos o burlas.
Comparación: ChatGPT ofrece profundidad explicativa similar a Claude 2, es más detallado que Gemini y evita el humor de Grok, reforzando su idoneidad en contextos académicos.