MISIÓN 1 · Lección 4

Evaluación y Mejora de Modelos NLP

Evaluar y mejorar modelos es fundamental para garantizar resultados fiables y adaptarlos a escenarios reales. En esta lección exploramos métricas, técnicas de optimización y métodos de explicabilidad.

Métricas de evaluación

from sklearn.metrics import classification_report, confusion_matrix

print(classification_report(y_test, y_pred))
print(confusion_matrix(y_test, y_pred))

Problemas comunes

Técnicas de mejora

Ejemplo: búsqueda de hiperparámetros

from sklearn.model_selection import GridSearchCV

params = {"clf__C": [0.1, 1, 5, 10]}

gs = GridSearchCV(pipe, params, cv=3, n_jobs=-1)
gs.fit(X_train, y_train)

print("Mejores parámetros:", gs.best_params_)

Validación cruzada

Permite evaluar la estabilidad del modelo dividiendo los datos en varios subconjuntos (folds):

from sklearn.model_selection import cross_val_score

scores = cross_val_score(pipe, X, y, cv=5)
print("Exactitud promedio:", scores.mean())

Explicabilidad de modelos

Ejemplo con LIME

import lime.lime_text
from lime.lime_text import LimeTextExplainer

explainer = LimeTextExplainer(class_names=["negativo", "positivo"])
exp = explainer.explain_instance("me gusta mucho este producto", pipe.predict_proba)
exp.show_in_notebook(text=True)

Buenas prácticas

Reflexión final

Evaluar correctamente y aplicar técnicas de mejora garantiza modelos más robustos y confiables. Esto prepara el terreno para aplicaciones en entornos productivos donde la precisión y la confianza son esenciales.