Skip to content
Permalink
main
Switch branches/tags

Name already in use

A tag already exists with the provided branch name. Many Git commands accept both tag and branch names, so creating this branch may cause unexpected behavior. Are you sure you want to create this branch?
Go to file
 
 
Cannot retrieve contributors at this time
Grupo: Miércoles 12:40 Grupo 1
Título del trabajo: Detección y análisis de lesiones cutáneas.
Integrantes: David Cuevas Fénix
Juan Diego Galisteo Gómez
José María Sigüenza Izquierdo
======Github======
Proyecto entregado(Compacto): https://github.eii.us.es/juagalgom1/PID-Proyecto-Fin
Proyecto original: https://github.eii.us.es/jossigizq/PID-Proyecto
=============================================================================================================================
Dentro de este repositorio podemos encontrar tanto la Documentación como la Presentación y una carpeta de Codigo donde podremos encontrar la aplicación implementada en un Jupyter Notebook junto a la base de datos necesaria y las carpetas complementarias para la ejecución del codigo.
=============================================================================================================================
La base de datos utilizada es la HAM10000 proporcionada por la Universidad de Harvard.
https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi:10.7910/DVN/DBW86T
Importante destacar que los ficheros de la base de datos ya se pueden encontrar en el propio repositorio, no es necesario descargar la base de datos.
Si fuese completamente necesario, para utilizar la base de datos recien descargada debemos de descomprimir el archivo que podemos deescargar en el enlace web suministrado, descomprimir todas las carpetas que se encuentren dentro (descomprimir 'HAM10000_images_part_1.zip' y 'HAM10000_images_part_2.zip' como un mismo directorio: 'HAM10000_images_all.zip').
Colocar los ficheros dentro de la carpeta de 'Codgio' quedando el directorio de la siguiente forma: '...PID-Proyecto-Fin\Codigo\dataverse_files\'.
=============================================================================================================================
Instalar Anaconda Navigator
Intalación de paquetes necesaria:
(Usar Anaconda Prompt)
>>> pip install --upgrade pip
>>> pip install opencv-python
>>> pip install pandas
>>> pip install keras
>>> pip install --upgrade tensorflow
=============================================================================================================================
EXPLICACIÓN JUPYTER NOTEBOOK
-----------------------------------------------------------------------------------------------------------------------------
Se considera que la aplicación en Jupyter Notebook esta lo suficientemente detallada, aqui se indicaran algunos matices de la aplicación.
> LEYENDA DE COLORES DE LA APLICACÍON <
(Cada color esta comprendido desde el texto descriptivo del color correspondiente hasta la fila de simbolos '=' del mismo color)
Rojo: Codigo que puede modificar el usuario.
Azul: Codigo que no hace falta que ejecute el usuario, a menos que desee modificar/comprobar el correcto funcionamiento de dicha funcion, probablemente sea una ejecución larga.
Verde: Resultados de cierta fase
Naranja: Codigo importante (Fase de Test)
Morado: Ejecutar las celdas superiores para una ejecución rapida de todas las funciones.
-----------------------------------------------------------------------------------------------------------------------------
> EJECUCIÓN RAPIDA DEL NOTEBOOK <
Ejecutar todas las celdas que se encuentren por encima del texto morado "EJECUTAR TODAS LAS CELDAS SUPERIORES DESDE AQUI"
-----------------------------------------------------------------------------------------------------------------------------
Las celdas que encontramos debajo del texto "EJECUTAR TODAS LAS CELDAS SUPERIORES DESDE AQUI" corresponde con la ejecución de la comprobación de Tests manuales de la imagen.
Recordar que el tamaño de los vectores de los Modelos y la función utilizada para extraer características de la imagen obtenida deben de coincidir.
Es por esto que podemos encontrar 2 funciones; 'obtener_prediccion(...)' y 'obtener_prediccion_red(...)' siguiendo la misma nomenclatura que las funciones usadas para extraer el vector 'completo' de características y el vector 'reducido'.
Para poder realizar los Tests manuales en varias imagenes al mismo tiempo, se ha optado por utilizar una matriz (resX) para poder almacenar los vectores de todas las imagenes que deseemos guardar a la vez, cabe recalcar que esto solo funciona si pasamos multiples imagenes "una a una".
Si queremos leer de un fichero de la misma forma que se realiza en el apartado 'Fase 4.2: Implementación SVM' tendremos que realizar una lectura del fichero de la misma forma que se utilizó en ese apartado.