Con el desarrollo de la ciencia en el campo de la Inteligencia Artificial, el uso de aplicaciones de Aprendizaje de Máquinas Automático (AutoML) ha ido en ascenso en los últimos tiempos. El uso de Meta-learning proporciona optimización y rendimiento de estos programas aprovechando conocimiento ya computado. Este método aprende de tareas previamente analizadas, proporcionando una idea de...
¿Son los LLMs capaces de razonamiento similar al humano?
Esta tesis propone un marco de evaluación con lógica difusa para dar respuesta a esta cuestión. Ante su integración en aplicaciones críticas, se hace necesario evaluar no solo su precisión, sino también su generalización, inferencia y manejo de incertidumbre. Los métodos tradicionales, basados en métricas binarias, no capturan estas...
La investigación se orienta al estudio del uso de la Inteligencia Artificial Generativa y en especial los Grandes Modelos de Lenguaje para el análisis de movimientos sísmicos. Antecedentes: Las señales propias de los movimientos telúricos pueden ser captadas y estudiadas por diferentes dispositivos. El análisis y posible predicción de la frecuencia y fuerza de estos movimientos ha sido...
Los modelos de lenguaje a gran escala (LLMs) han demostrado capacidades avanzadas en la comprensión y generación de texto, pero su desempeño en tareas específicas, como la clasificación de problemas de machine learning, continúa siendo un problema abierto.
El estudio se basa en un corpus etiquetado de preguntas, sobre el cual se analizan dos enfoques principales. Primero, se establece una...
En un mundo donde la demanda de soluciones automatizadas de Machine Learning (ML) crece exponencialmente, esta investigación propone un marco innovador que combina algoritmos evolutivos con Modelos de Lenguaje Grandes (LLMs) para revolucionar la construcción de pipelines de AutoML. El objetivo central es eliminar la dependencia de configuraciones manuales y optimizaciones ineficientes,...
This study investigates the capability of a Multi-Layer Perceptron (MLP) neural network (NN), initially trained to predict intraocular lens (IOL) power for a specific lens model in cataract surgery, to generalize its predictions to other IOL models. A retrospective analysis was conducted using biometrical data, including axial length (AL) and average corneal power (Kav), as well as predicted...
The convergence of Large Language Models (LLMs) and Automated Machine Learning (AutoML) offers transformative potential for streamlining NLP pipeline design, traditionally reliant on manual algorithm selection and feature engineering. This research investigates how LLM inference capabilities—leveraged as dynamic, self-contained modules—can automate and optimize NLP task integration within...
Antecedentes: La inteligencia artificial ha avanzado notablemente desde la introducción de los Transformers en 2017, pero estos modelos enfrentan desafíos en eficiencia y escalabilidad. Mamba surge como una
alternativa innovadora para superar estas limitaciones. Este informe analiza las restricciones de los Transformers, el desarrollo de Mamba y su impacto en la IA, proporcionando una visión...
Antecedentes: La incorporaci´on de modelos de lenguaje de gran escala
(LLMs, por sus siglas en ingl´es) en los sistemas de recomendaci´on (RS) ofrece
ventajas significativas, principalmente debido a su capacidad para extraer
representaciones de alta calidad a partir de datos textuales y aprovechar el
conocimiento codificado en ellos. A diferencia de los sistemas tradicionales,
los modelos...
A Restricted Boltzmann Machine (RBM) is a generative neural network made of a layer of visible neurons fully
connected to a single layer of hidden neurons. RBMs are called “restricted” because there are not connections
between units within the same layer. This model is typically used to learn a statistical representation of a
dataset in order to generate new samples from the same...
Large Language Models (LLMs) have emerged as powerful tools for medical question-answering, capable of assisting in clinical decision-making by processing and synthesising vast amounts of medical knowledge. However, deploying LLMs in healthcare requires balancing accuracy, computational efficiency, and cost. This study investigates different inference strategies—single-call, ensemble, and...
La investigación aborda la implementación de grafos de conocimiento en el ámbito médico mediante el uso de modelos de lenguaje avanzados (LLMs), destacando específicamente Phi 3.5 -Ollama con 3.8 mil millones de parámetros. Antecedentes: La organización de información médica no estructurada representa un desafío en el análisis de datos clínicos. Objetivos: Desarrollar un sistema basado en...
La investigación se orienta en el uso de redes neuronales con una arquitectura Kolmogorov-Arnold para el procesamiento de imágenes médicas. Antecedentes: Las redes neuronales Kolmogorov-Arnold (KAN; siglas en inglés) se basan en el teorema de representación de Kolmogorov-Arnold, que permite descomponer funciones complejas en funciones univariantes más simples, lo que facilita la...