Cs. de la Computación

  • Aplicación de técnicas de NLP y descubrimiento de conocimiento para la construcción del OVS PBA

    Fecha: 01/01/2024
    Resumen:Frente a la necesidad del OVS de contar con datosrepresentativos del mercado inmobiliario, serealizaron tareas de procesamiento automáticorelacionadas con el curado de los mismos. A partirde descripciones de inmuebles, se realiza unprocesamiento automático para extraercaracterísticas influyentes en la valoración delsuelo. Estos datos son visualizados en unframework GIS.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Arquitectura de billeteras electrónicas de código abierto para criptomonedas con privacidad en clientes livianos

    Fecha: 01/01/2024
    Resumen:El objetivo general de la investigaci´on es contribuir la adopci´on de tecnolog´ıa Blockchain por fueradel ´ambito especulativo/financiero, haciendo especial hincapi´e en aquellas que consideran el derechoa la privacidad de sus usuarios.El objetivo espec´ıfico es proponer una arquitectura de referencia para aplicaciones que operencriptomonedas con privacidad (privacy coins) desde dispositivos m´oviles y/o de bajos recursos com-putacionales (clientes livianos).La definici´on de una arquitectura de referencia busca responder las siguientes interrogantes:• ¿Cu´ales son los proyectos m´as relevantes en el universo de privacy coins, cu´ales de ellos debenser sujeto de estudio para la arquitectura de referencia?• ¿Qu´e tipo de arquitectura utilizan las aplicaciones m´oviles de privacy coins encuentran imple-mentadas y desplegadas en producci´on?• ¿Existen requisitos funcionales y no funcionales comunes entre las implementaciones de distintosprotocolos de privacy coins?• ¿Qu´e componentes son extrapolables de un cliente liviano de una criptomoneda de transaccionesp´ublicas a una privacy coin y cu´ales no lo son?• ¿Qu´e otras caracter´ısticas aspectos deben considerarse para este tipo clientes livianos en privacycoins? (por ejemplo: modelos de seguridad, disponibilidad, rendimiento)A su vez se realizar´a una implementaci´on modelo para probar la factibilidad de la propuesta ycompararla con arquitecturas relevadas.Como trabajos a futuro se abren dos enfoques complementarios. El primero metodol´ogico, cen-trado en determinar m´etricas que posibiliten un an´alisis del estado de situaci´on de estos proyectosen base a sus caracter´ısticas concretas presentes en sus repositorios de c´odigo abierto que permitancontrarrestar el car´acter subjetivo/promocional presente en la literatura gris de los mismos. Contarcon tales m´etricas tambi´en contribuir´ıa activamente en otros estudios propios de otros campos de laciencia (Econ´omicas y Sociales). El segundo, de car´acter t´ecnico, centrado en la aplicaci´on pr´acticade tecnolog´ıas blockchain en peque˜nos dispositivos posibilitando as´ı una verdadera democratizaci´ony de-centralizaci´on de este nuevo tipo de tecnolog´ıas sin que su uso y aplicaci´on tenga implicacionesnegativas sobre la privacidad de la informaci´on que estas cadenas de bloques almacenan, ni signifiqueun riesgo de la confidencialidad y soberan´ıa de los usuarios sobre su propia informaci´on.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Generación de modelo BIM implementando algoritmos de inteligencia artificial

    Fecha: 01/01/2024
    Resumen:PropósitoEl objetivo de esta investigación es desarrollar un enfoque automatizado que permita, a partir de planos raster, generar modelos de construcción compabitbles con la metodologia Building Information Model (BIM). Para ello, se plantean los siguientes objetivos específicos:1.Definir un mapeo entre planos y BIM: Se propone establecer una correspondencia entre los elementos de los planos (muros, puertas, ventanas, vigas, columnas, etc.) y los componentes de un BIM, tomando como base el estándar de planos de Argentina.2.Clasificación de elementos mediante inteligencia artificial (IA): Se utilizarán técnicas avanzadas de IA para clasificar los elementos identificados en los planos. Estos resultados permitirán la generación de documentos interoperables en formato BIM. Los planos arquitectónicos y estructurales serán procesados para reconocer automáticamente los distintos componentes constructivos y generar archivos exportables para su uso en modelos BIM.3.Validación del enfoque: Se evaluará la precisión del enfoque mediante el procesamiento de planos reales de viviendas y edificios, verificando su capacidad para generar modelos precisos y funcionales.ActividadesConstrucción de un dataset de planos: Dado que no se dispone de un banco de datos estructurado de legajos de obra en Argentina, se ha recolectado y clasificado una serie de planos de construcción en diversas especialidades (arquitectura, estructura, instalaciones). Los elementos de interés fueron etiquetados utilizando herramientas open source como LabelMe.Selección e implementación de técnicas de IA: A lo largo de la investigación, se probarán diversos modelos preentrenados de detección de objetos, como Mask R-CNN, Cascade R-CNN y YOLO, con técnicas de transfer learning adaptadas para optimizar su rendimiento en la clasificación de elementos de planos.Modelado BIM en Python: Los elementos clasificados serán integrados en un modelo BIM en formato IFC, utilizando librerías especializadas como IfcOpenShell para garantizar la interoperabilidad y la precisión del modelo generado.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Modelos de aprendizaje automático para el procesamiento y análisis de datos astronómicos

    Fecha: 01/01/2024
    Resumen:El objetivo general de mi plan es el desarrollo y la aplicación de modelos de Aprendizaje Automático capaces de procesar, detectar y clasificar diversos tipos de datos astronómicos. Por un lado, se trabajará con datos espectroscópicos adquiridos durante el siglo pasado. Estos datos actualmente se encuentran almacenados en placas de vidrio en la Facultad de Ciencias Astronómicas y Geofísicas (UNLP). Este material comenzó a ser digitalizado a partir de 2019 a través del proyecto "Recuperación del Trabajo Observacional Histórico" (ReTrOH). Los objetivos particulares de esta linea de investigación son los siguientes:- Estudiar y analizar métodos y pipelines existentes para el procesamiento de datos astronómicos de legado tales como las placas espectrográficas antiguas.- Desarrollar una solución totalmente automatizada para resolver el problema de calibración en longitud de onda que actualmente se resuelve mediante un proceso manual, largo y especializado.- Desarrollar métodos que resuelvan la totalidad del procesamiento de forma automática y que permitan la resolución eficaz de cantidades masivas de estos datos.Por otra parte, se plantea como objetivo de esta Tesis el desarrollo y aplicación de modelos basados en Aprendizaje Automatico (AA) para analizar, clasificar y procesar automáticamente objetos astronómicos.Los objetivos particulares son los siguientes:- Estudiar y analizar métodos existentes para identificar y clasificar objetos astronómicos en base a datos espectroscópicos y fotométricos, haciendo foco en la detección de Estrellas masivas jovenes, como las Be.- Desarrollar algoritmos de extracción de características que permitan identificar la información de las bases de datos disponibles para poder generalizar adecuadamente los modelos.- Desarrollar modelos basados en Redes Neuronales Artificiales para abordar el problema del desbalance de clases en bases de datos astronómicas.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Interpretabilidad de modelos de redes neuronales para visión por computadora

    Fecha: 01/01/2024
    Resumen:La inteligencia artificial ha revolucionado diversas industrias, destacando las redes neuronales como uno de sus modelos más utilizados. Estos modelos son tradicionalmente considerados como de caja negra. En los últimos años, se han realizado varios esfuerzos para comprender su funcionamiento de forma tal que el mismo sea más predecible y modulable. La interpretabilidad es un campo de investigación que tiene como objetivo estudiar técnicas para comprender los estímulos por los cuales modelos de caja negra generan determinadas salidas. Se utiliza con un rol diagnóstico para descubrir cómo es la contribución de las capas ocultas en los modelos, y es de extrema importancia en el ámbito de la medicina.En particular, la retinopatía diabética es una enfermedad aguda que afecta a un enorme porcentaje de la población mundial y que puede tratarse con detección temprana. Por ello, sería de gran utilidad contar con modelos que permitan automatizar el análisis de imágenes de fondo de ojos, debido a que en muchas regiones el número de oftalmólogos disponibles es insuficiente. El objetivo es tener un modelo que permita determinar la calidad de una imagen para asistir a la captura y análisis de las mismas en tiempo real, y además que sea interpretable para poder otorgar feedback a los profesionales médicos y así entender qué características se tienen en cuenta en la clasificación. En el marco de esta línea de investigación se presentó un modelo encoder-decoder basado en la arquitectura VGG16 de predicción de calidad de imagen que se denominó VISTA. Al modelo se le incorporó un módulo de Concept Whitening, una técnica de interpretabilidad intrínseca, que indica en base a qué conceptos la red realiza sus predicciones. También se realizaron pruebas con RISE, un método post-hoc y local. Este genera un mapa de importancia que, al aplicarlo a imágenes, permite visualizar las regiones de la misma que fueron importantes para la predicción de determinada clase. El uso de diferentes métodos de interpretabilidad integrados en el modelo genera información visual interpretable para que los oftalmólogos entiendan la correctitud del modelo utilizado. La implementación de RISE se realizó con el framework Captum. También se implementó un dataset loader para los conjuntos de datos EyePACS y EyeQ cuyas imágenes sirven para evaluar retinopatía diabética y la calidad de las imágenes para esta patología, respectivamente. Estos conjuntos de datos fueron utilizados para el entrenamiento del modelo.Se iterará al respecto con el desarrollo de una aplicación que admita a los médicos y técnicos usar sus teléfonos móviles para tomar fotografías de fondo de ojos y así evaluarlas para detectar trastornos mediante modelos de IA, incluyendo una explicación del diagnóstico brindado, lo cual permitirá reducir significativamente la tasa de ceguera en países donde el acceso a servicios oftalmológicos es limitado.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Reconocimiento de gestos en videos con Deep Learning

    Fecha: 01/01/2024
    Resumen:El objetivo general de este plan de beca es el desarrollo de nuevos modelos de Deep Learning para el reconocimiento de gestos en videos. En el ámbito de las aplicaciones, los modelos se aplicarán al reconocimiento de señas (caso particular de gestos) de la Lengua de Señas Argentina (LSA), para traducir automáticamente desde LSA al castellano.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo

  • Generación automática de videos utilizando Deep Learning. Aplicación en reconocimiento de gestos dinámicos

    Fecha: 01/01/2024
    Resumen:El objetivo general de esta beca es la creación de modelos capaces de generar videos artificiales. Estos modelos resultan sumamente útiles en contextos donde se requiere aumentar la cantidad de datos disponibles, en particular aquellas bases de datos con pocos ejemplos. El énfasis estará puesto en la generación de videos de gestos dinámicos, permitiendo de esta forma entrenar modelos de Deep Learning eficientes a partir de pocos datos reales.Como objetivos específicos se proponen los siguientes:a. Estudio y análisis de bases de datos públicas sobre reconocimiento de gestos, incluyendo bases de datos específicas para lengua de señas. Particularmente LSA64, base de datos para la lengua de señas argentina desarrollada en el III-LIDI.b. Creación de nuevos modelos de generación de videos que posean coherencia temporal para complementar las bases de datos existentes. Particularmente se estudiarán las Generative Adversarial Networks (GAN) ya que son los modelos más utilizados en el estado del arte.c. Desarrollo de modelos clasificadores de videos aplicado al reconocimiento de gestos dinámicos. Particularmente, se estudiarán Redes Neuronales Convolucionales (ConvNets) y Redes Neuronales Recurrentes (específicamente LSTM) específicas para problemas de clasificación de objetos en videos.d. Aplicación de los clasificadores desarrollados en el dominio del reconocimiento de gestos dinámicos y la lengua de señas.e. Análisis y comparación de los resultados obtenidos utilizando los nuevos datos generados.
    Compartir: Facebook logo Twitter logo Google+ logo Linkedin logo