 
 El equipo HULAT-UC3M ha conseguido el primer puesto en una de las subtareas de CLEARS (Challenge for Plain Language and Easy-to-Read Adaptation for Spanish texts, https://sites.google.com/gcloud.ua.es/clears) en IberLEF 2025. Esta subtarea ha consistido en la adaptación de textos complejos en español a Lenguaje Claro.
Las estrategias utilizadas están descritas en el artículo "Prompt-Based Simplification for Plain Language using Spanish Language Models" (https://doi.org/10.48550/arXiv.2509.17209), presentado por Jesús M. Sánchez-Gómez el 23 de septiembre en el Workshop IberLEF 2025, celebrado en el marco del XLI Congreso Internacional de la Sociedad Española para el Procesamiento del Lenguaje Natural (SEPLN 2025) en Zaragoza. El enfoque empleado por el equipo HULAT-UC3M se basó en modelos de lenguaje (LLMs) preentrenados con textos en español, como Salamandra y RigoChat, y la ingeniería de prompts mediante el diseño de tres estrategias diferentes, incluyendo además configuraciones de zero-shot y de fine-tuning con LoRA (Low-Rank Adaptation) para el entrenamiento de los modelos.
En los experimentos previos con los datos de entrenamiento se concluyó que el modelo RigoChat-7B-v2 con prompt unificado y con configuración zero-shot era el que mejor conseguía reducir el tamaño de los textos originales y reescribirlos siguiendo las pautas de Lenguaje Claro. Además, esta estrategia obtuvo la mejor puntuación en la métrica principal de la tarea, la similitud semántica, por lo que fue seleccionada para la competición, obteniendo el primer puesto con los datos de test en la correspondiente subtarea.
Este éxito pone de manifiesto la capacidad y el conocimiento que tiene el grupo HULAT en aquellas tareas que están relacionadas con sus dos principales líneas de investigación: el Procesamiento del Lenguaje Natural y la Accesibilidad.

