Se necesita portátil propio (Mac o PC).
Para este curso es necesario acreditar un conocimiento básico del lenguaje Python 3. Con el fin de evaluar los conocimientos de Python requeridos, antes del inicio del curso se realizará un cuestionario online a los solicitantes. Los estudiantes que no superen la prueba, no se admitirán en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad. Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes. La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos. Una lista completa de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
1.- Manejo de matrices multidimensionales con numpy
2.- Funciones básicas para la creación y utilización de matrices de numpy
3.- Lectura-escritura en disco de datos
4.- Creación y representación de funciones matemáticas
5.- Creación de distintos gráficos con matplotlib
6.- Modificación de símbolos y leyendas
7.- Análisis de imagen con scipy
El alumno será capaz de:
1.- Crear y modificar gráficos
2.- Integrar LaTeX directamente en un gráfico
3.- Representar funciones y resolver ecuaciones matemáticas
4.- Entender la documentación de las librerías de Python
5.- Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Tema 1. Manejo de datos con numpy (4h) Constantes y funciones de numpy. Arrays de numpy. Métodos para la creación de arrays. Operaciones con arrays. Indexado y slicing en arrays. Leer y guardar arrays en archivos de texto.
Tema 2. Representación gráfica con matplotlib (4h) Representación básica de funciones Representación de varias curvas. Representación de nube de puntos Representación de histogramas y boxplots. Definiendo colores y símbolos. Añadiendo leyendas y etiquetas. Control de ejes. Representación de múltiples figuras.
Tema 3. Análisis numérico con scipy (2h) Ajuste e interpolación de datos. Tratamiento multidimensional de imágenes con ndimage.
Tema 4. Breve introducción a cython (2h). Creación y compilación de scripts usando Cython. Elementos básicos del lenguaje. Optimización de código con Cython.
Curso destinado a alumnos de TFM y doctorado con un enfoque práctico hacia la interpretación de espectros 1D y 2D.
Tema I. Origen de la señal de RMN y núcleos activos en RMN. Desplazamiento químico. Integración. Factores que afectan al desplazamiento químico: efectos inductivos, mesómeros, cargas netas, anisotropía, campos eléctricos, van der Waals, enlaces de hidrógeno, efecto isotópico, efecto del medio. 2 h.
Tema II. El acoplamiento escalar. Espectros de primer orden: notación, tipos de acoplamientos (nJ, n ≥ 2), efecto tejado, árboles de desdoblamiento. Equivalencia química y equivalencia magnética. Relaciones entre estructura y magnitud relativa de los acoplamientos nJHH. Acoplamientos heteronucleares. Desacoplamiento homo y heteronuclear. Acoplamientos de orden superior a 1. 3 h.
Tema III. Concepto de relajación y factores de los que depende. Relación entre tiempos de relajación y estructura. El efecto Overhauser nuclear. Relación entre NOE y estructura. 1 h.
Tema IV. RMN dinámica: escalas de tiempo en RMN, efectos en el desplazamiento químico y en las constantes de acoplamiento. 1 h.
Tema V. RMN-13C{1H}: medida de espectros (efecto del desacoplamientos de 1H). Desplazamiento químico. Factores que afectan al desplazamiento químico. Edición de espectros. 2 h.
Tema VI. Introducción a la RMN bidimensional. Tipos de espectros y ejemplo de aplicación (resolución de problema estructural analizando COSY, HSQC y NOESY, sin otros concimientos previos). 1 h.
Tema VII. Espectros COSY, COSYDQF, TOCSY (incluido TOCSY selectivo), HSQC, HMQC, HMBC, NOESY, HOESY. 2 h.
Lunes 7 | Jueves 10 | Lunes 21 | Jueves 24 | Lunes 28 | Jueves 1 |
---|---|---|---|---|---|
Tema I/2 h | Tema II/2 h | Tema II/1 h | Tema IV/1 h | Tema V/1 h | Tema VII/2 h |
Tema III/1 h | Tema V/1 h | Tema VI/1 h |
- The course will be held presentially. Prof. Bro will intervene by virtual connection
- The course will be held in English.
It is necessary to have at least a B1 level (preferably B2 or higher). You can indicate in the “Observations” section your level of English and, if it is the case, if you have a certificate. / Este curso se impartirá íntegramente en inglés. Es necesario contar como mínimo con un nivel B1 (preferentemente B2 o superior). Pude indicar en el apartado “Observaciones” su conocimientos de inglés y en su caso si dispone de certificado para acreditarlo.
- It is requiered basic knowledge of MatLab. Those students who can provide certification of that knowledge will have preference in admission.
- Own laptop required
Do you have complicate data? Difficult to understand? With thousands of variables/observations? Or with too little observations? Missing data? Time series? Multiple sources? Big Data?
The course goal is to introduce the students to very powerful data visualization techniques to look into your data set. There is a bunch of Machine Learning (ML) methods that can do difficult tasks (like classification, modelling and prediction) using a black-box approach over data, deep learning being a popular example. This course shows a totally different approach to handling data, using ML only as an instrument (as a means) to understand your data. MEDA will show you how to look into your data set, regardless its complexity, so that you can find groups of individuals and classify them, understand relationships among measured quantities, detect anomalies, find parsimonious models, etc.
The course is led by Professor Rasmus Bro, world leading professor on data analysis in biological and food sciences, and his collaborator at the UGR Dr. José Camacho, specialist on data analysis in Big Data and Exploratory Data Analysis.
Professor Bro is a prominent figure in the field of data analysis and in particular in multivariate analysis. During the last two decades, Prof. Bro has been a principal actor in the development of multivariate analysis in chemical and biological applications in the chemometrics area, in which according to google scholar is the second top researcher. His vast research work is outstanding, presenting an H index equal to 78. Prof. Bro is the author of the most referenced tutorial of PARAFAC (2843 citations), the developer of an extensively used multi-way version of Partial Least Squares (N-PLS) and co-author of more than 200 publications mainly related to the use of multi-way analysis in real life applications. His contributions to the use of constrained modelling are also very relevant, including the use of sparse methodologies for data analysis, and he has co-authored relevant articles to the problem of data fusion, a main challenge in Big Data analyses. The international influence in the community of his course “Multi-way Analysis” and his monograph “Multi-way Analysis: applications in the chemical sciences” is widely recognized. Prof. Bro has taught courses on data analysis in dozens of public and private organizations around the world. From 2001, he is the head of ODIN, an industrial research consortium offering courses, workshops, international contacts and student collaboration.
José Camacho is full professor in the Department of Signal Theory, Networking and Communications and researcher in the Information and Communication Technologies Research Centre, CITIC for its initials in Spanish, both at the University of Granada, Spain. His research interests include exploratory data analysis, anomaly detection and optimization with multivariate techniques applied to data of very different nature, including personalized medicine and communication networks. He is especially interested in the use of exploratory data analysis to Big Data.
Every person analyze their own data under supervision of the teacher and writes a report. The report must be short and concise. A short description of the data and their background must be provided. A short description of aim of the present work must be provided. This aim is not necessarily the overall aim of the project from which the data stem (although this is of course nice). Rather the purpose should be chosen in order to test and evaluate the students’ ability to use the methods taught at the course. It is important to discuss in detail how the models have been critically used for the stated purposes.
Day 1: PCA (Prof. Bro & Dr. Camacho)
8:30-9:30 | Welcome (Bro & Camacho) |
9:30-10:00 | Introduction and algebra without tears |
10:00-11:15 | Principal Component Analysis – PCA |
11:15-11:30 | Break |
11:30-12:00 | Software introduction (demos/hands-on) |
12:00-12:30 | Exercises – PCA |
12:30-13:30 | Validation, outliers – PCA |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises – PCA |
Day 2: PLS (Prof. Bro)
9:00-9:15 | PCA summary |
9:15-10:30 | Multivariate calibration - PLS |
10:30-10:45 | Break |
10:45-11:30 | Exercises – Multivariate calibration |
11:30-13:00 | Validation and outliers incl. exercises |
13:00-15:00 | Lunch |
15:00-16:00 | Preprocessing and nice to know |
16:00-16:15 | Break |
16:15-18:00 | Competition! |
Day 3: MEDA Toolbox (Dr. Camacho)
9:00-10:00 | Introduction to the MEDA Toolbox |
10:00-11:15 | Using the command line interface |
11:15-11:30 | Break |
11:30-12:30 | Advanced Exploratory Data Analysis |
12:30-13:30 | Exercises & Examples |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 4: Big Data (Dr. Camacho)
9:00-11:00 | Extensions to Big Data: Big Observations |
11:00-11:30 | Break |
11:30-12:30 | Exercises |
12:30-13:30 | Extensions to Big Data: Big Variables |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 5: Playing with your data I (Prof. Bro & Dr. Camacho)
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals.
9:00-14:00 | Playing with your data |
de septiembre)
En cada uno de estos cursos se tratarán tanto aspectos teóricos como prácticos, destacando la realización de una gran cantidad de horas prácticas de laboratorio.
Toda la información sobre el programa se puede consultar en la web https://eurombr.ugr.es/ .
El número de plazas es limitado, por lo que se atenderán las inscripciones por orden de registro.
Las inscripciones con fecha posterior al 15 de julio tendrán un sobrecargo. La cuota de inscripción al curso incluye la participación en las conferencias y sesiones prácticas de laboratorio, los materiales necesarios para llevar a cabo las diferentes actividades, cóctel de bienvenida, cafés, almuerzos, excursión y cóctel en un Carmen.
El dia 13 de Septiembre de 2023 se celebrará en la facultad de Ciencias de la Universidad de Granada el TALLER TEÓRICO-PRÁCTICO SOBRE FENÓMENOS INTERFACIALES, como actividad previa al VI Congreso de Jóvenes Investigadores e Investigadoras en Coloides e Interfases (JICI6, https://wpd.ugr.es/~jici6/).
Este taller pretende cubrir los fundamentos de la ciencia de superficies e interfases en una jornada con contenidos teóricos y clases prácticas en laboratorios especializados. El objetivo del taller es proporcionar una visión global de la potencialidad y multidisciplinariedad de los fenómenos interfaciales en la actualidad.
El proceso de inscripción está abierto hasta el 19 de mayo de 2023, inclusive.
Puedes encontrar toda la información, formulario de inscripción y novedades del evento en la página web:
http://wpd.ugr.es/~jici6/taller-teorico-practico-de-fenomenos-interfaciales/
Lugar y fecha:
Andalusian Global ObseRvatory of the Atmosphere, Instituto de Investigación del Sistema Tierra de Andalucía, Granada, Spain. June 12-17, 2023.
Descripción breve:
El proyecto ATMO-ACCESS apoya actividades innovadoras de formación y educación relacionadas con las infraestructuras de investigación atmosférica. Es crucial para el éxito futuro de las instalaciones atmosféricas europeas garantizar que las nuevas generaciones de investigadores adquieran conocimientos y habilidades para aprovechar todas las herramientas esenciales para su investigación. Esta capacitación en AGORA Aerosol Training School es la primera de tres sesiones innovadoras para agregar la dimensión de capacitación a las infraestructuras de investigación utilizando acceso físico, remoto y virtual.
Grupo objetivo:
El curso de formación está destinado principalmente a investigadores y técnicos del campo atmosférico. Los alumnos deben tener conocimientos previos sobre las ciencias de los aerosoles, al menos en una de las técnicas de medición de aerosoles. Podrían ser estudiantes de master, estudiantes de doctorado, científicos o técnicos que inician su carrera. Se requieren buenas habilidades de comunicación en inglés.
Número de participantes: 25
Contenidos del curso y resultados del aprendizaje:
Las conferencias brindan conocimientos fundamentales en técnicas novedosas y avanzadas para medir las propiedades de los aerosoles, cubriendo in situ, sensores remotos e instrumentos de laboratorio. Este curso de formación híbrido se realizará de forma presencial en el Observatorio Global de la Atmósfera de Andalucía (AGORA) en Granada (España), e incluirá una visita a la estación de Sierra Nevada y formación práctica en algunos instrumentos novedosos de aerosoles. Se combina con actividades a distancia la semana anterior (1,5 h al día, 2 días) y posterior al curso (3 h al día, 5 días). Las conferencias presenciales interactivas están previstas del lunes 12 al viernes 16 de junio (8:30 - 17:30). Todos los participantes obtendrán un certificado por su participación.
Ponentes:
Dr. Lucas Alados-Arboledas, University of Granada (Spain)
Dr. Andrés Alastuey, IDAEA-CSIC (Spain)
Dr. Elisabeth Andrews, NOAA (United States)
Dr. Martine Collaud-Coen, MeteoSwiss (Switzerland)
Dr. Oleg Dubovik, Centre National de la Recherche Scientifique (France)
Dr. Martin Gysel-Beer, Paul Scherrer Institute (Switzerland)
Dr. Stelios Kazadzis, World Radiation Center (Switzerland)
Dr. Anton Lopatin, GRASP SAS (France)
Dr. Griša Močnik, University of Nova Gorica (Slovenia)
Dr. Francisco Navas-Guzmán, University of Granada (Spain)
Dr. Doina Nicolae, INOE (Romania)
Dr. Gloria Titos, University of Granada (Spain)
Dr. Antonio Valenzuela, University of Granada (Spain)
Coordinadores: Dr. Lucas Alados Arboledas (alados@ugr.es) y Juan Luis Guerrero Rascado (rascado@ugr.es)
Más información en: https://atmosphere.ugr.es/en/about/presentation/agora_aerosol_training_course
Curso destinado a estudiantes de doctorado y master, usuarios y responsables de mantenimiento de sistemas de alto y ultra alto vacío: XPS, STM, sistemas de análisis de gases acoplados a termobalanzas, equipos de quimisorción.
Día 1. Tecnología del vacío. (3,5 h aula)
1) Descripción aplicaciones en procesos industriales: envasado de alimentos, aeronáutica y aeroespacial, energía fotovoltaica y termosolar, crecimiento de capas finas: metalización faros coches, espejos telescopios, vidrios arquitectónicos.
2) Descripción aplicaciones en investigación: nanotecnología y aceleradores de partículas.
3) Actividades StartUp
Dia 2. Espectrometría de masas cuadrupolar (2,5 h aula / 1 h visita CIC)
1) Espectros de gases residuales en cámara de alto y ultra alto vacío.
2) Sistemas análisis de gases - Descripción aplicaciones.
3) Generación hidrógeno verde.
Se necesita portátil propio (Mac o PC).
Para este curso es necesario acreditar un conocimiento básico del lenguaje Python 3. Con el fin de evaluar los conocimientos de Python requeridos, antes del inicio del curso se realizará un cuestionario online a los solicitantes. Los estudiantes que no superen la prueba, no se admitirán en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad. Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes. La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos. Una lista completa de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
1.- Manejo de matrices multidimensionales con numpy
2.- Funciones básicas para la creación y utilización de matrices de numpy
3.- Lectura-escritura en disco de datos
4.- Creación y representación de funciones matemáticas
5.- Creación de distintos gráficos con matplotlib
6.- Modificación de símbolos y leyendas
7.- Análisis de imagen con scipy
El alumno será capaz de:
1.- Crear y modificar gráficos
2.- Integrar LaTeX directamente en un gráfico
3.- Representar funciones y resolver ecuaciones matemáticas
4.- Entender la documentación de las librerías de Python
5.- Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Tema 1. Manejo de datos con numpy (4h) Constantes y funciones de numpy. Arrays de numpy. Métodos para la creación de arrays. Operaciones con arrays. Indexado y slicing en arrays. Leer y guardar arrays en archivos de texto.
Tema 2. Representación gráfica con matplotlib (4h) Representación básica de funciones Representación de varias curvas. Representación de nube de puntos Representación de histogramas y boxplots. Definiendo colores y símbolos. Añadiendo leyendas y etiquetas. Control de ejes. Representación de múltiples figuras.
Tema 3. Análisis numérico con scipy (2h) Ajuste e interpolación de datos. Tratamiento multidimensional de imágenes con ndimage.
Tema 4. Breve introducción a cython (2h). Creación y compilación de scripts usando Cython. Elementos básicos del lenguaje. Optimización de código con Cython.
Se necesita portátil propio (Mac o PC).
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
- Es un lenguaje muy fácil de aprender, siendo el lenguaje más recomendado para usuarios que no cuentan con conocimientos de programación.
- Es de código libre, por lo que no requiere una licencia para su uso.
- Es multiplataforma, pudiéndose utilizar en diferentes Sistemas Operativos com MAC, LINUX, Windows, etc.
- Python es un lenguaje de programación real, con todas las características de un lenguaje de programación orientado a objetos, a diferencia de otros lenguajes como matlab que carecen de algunas funcionalidades en este sentido.
- Tiene multitud de módulos y librerías externos que realizan numerosas funciones de gran utilidad para científicos e ingenieros. A este respecto, módulos específicos para realizar cálculos científicos como numpy, matplotlib y scipy, han hecho que este lenguaje esté ganando cada vez más popularidad entre científicos e ingenieros.
- Se integra perfectamente con LaTeX, permitiendo el formateo de ecuaciones y la realización de figuras para artículos científicos o informes técnicos.
- Es extensible y altamente configurable. Librerías como matplotlib permiten realizar infinidad de gráficos de muy alta calidad e interactivos.
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
El alumno sabrá:
1.- Los elementos básicos de un lenguaje de programación
2.- Tipos de variables y su manipulación
3.- Manipulación de listas, tuplas y diccionarios
4.- Flujos condicionales if y recursivos for
5.- Funciones básicas del lenguaje
6.- Creación de funciones propias
7.- Control de código y manejo excepciones
El alumno será capaz de:
1.- Crear scripts en python para resolver problemas
2.- Leer y analizar un programa escrito en Python
3.- Manejar los principales entornos de programación con IPython (Spyder y Jupyter)
4.- Leer y escribir datos en ficheros de texto
5.- Diseñar algoritmos para la resolución secuencial de problemas
6.- Depurar programas y reconocer los principales tipos de errores
Tema 1. Introducción (1h) Introducción a los lenguajes de programación Historia de Python Descarga e instalación de anaconda. La consola de Python. Partes principales del IDE Spyder.
Tema 2. Tipos básicos, variables y expresiones (4h) Tipos de datos en Python. Variables, operadores y expresiones. Instalar, importar y utilizar módulos en Python. Listas, tuplas y diccionarios.
Tema 3. Operadores y funciones (4h) Operador lógico if. Bucles for. Bucles while. Creación y utilización de funciones en Python.
Tema 4. Operación de entrada/salida y optimización de código (3h) Lectura de ficheros de texto. Escritura en archivos de texto. Módulos os y sys. Control de ficheros y directorios. Optimización de código. Tipos de errores principales en Python. Control de código y manejo excepciones.
A cargo del Centro de Lenguas Modernas
A través del formulario accesible en el siguiente:
ENLACE DE INSCRIPCIÓN
1.1 English as a lingua franca in the scientific world. 1.2 Types of papers.
2.1 Sections. 2.2 Content. 2.3 Format and Layout. 2.4 Common errors.
3.1 Syntax and sentence structure. 3.2 Semantics and terminology. 3.3 Style and punctuation. 3.4 Common errors.
4.1 Keeping notes, annotations, notekeeping systems. 4.2 Keeping track of references. 4.3 Translation: problems and pitfalls. 4.4 Revising. 4.5 Expectations: Style guides, avoiding plagiarism, bibliography. 4.6 Useful links and tools.
Se ofertan 20 plazas. Es posible inscribirse durante cualquier año del doctorado. El taller está abierto tanto a doctorandos, tanto a tiempo completo como parcial.
Los alumnos crean un repositorio Git para el curso en http://bitbucket.org donde trabajan durante todo el taller y lo comparten con el profesor que, de esta forma puede seguir todo el trabajo que realizan los alumnos tanto durante las horas presenciales como en las no presenciales. Además, un Foro en la plataforma MOODLE permite la comunicación entre todos los participantes y la resolución de dudas y cuestiones de forma abierta y visible para todos los alumnos. Al final del taller el repositorio deberá contener la presentación de un texto científico que incluya bibliografía y diversos tipos de índices así como el historial de cambios de los archivos generados y situados bajo el control de Git. Siendo evaluado por el profesor responsable de la actividad.
La inscripción se realizará a través del siguiente ENLACE (se activará al inicio del plazo de inscripción)
Para inscribirse hay que registrarse como usuario de la plataforma tras picar sobre el enlace del curso. Esto puede hacerse en cualquier momento aunque no esté abierto el plazo de matrícula. Cuando se abra, al picar sobre el curso se tendrá la posibilidad de inscribirse hasta que se complete el número de inscripciones.
El taller está directamente enfocado a la escritura de la Tesis Doctoral. Los alumnos aprenden a utilizar el sistema de composición de textos LaTeX para escribir textos científicos, manejo automático de la bibliografía, y generar documentos en distintos formatos a partir del código fuente. Asimismo aprenden a utilizar el sistema de control de versiones Git, que resulta de especial interés para la administración de trabajo colaborativo, como la redacción conjunta de artículos de investigación o las correcciones de la memoria de la Tesis doctoral por parte de sus directores, por lo que es recomendable que tanto alumnos como sus directores asistan conjuntamente a este taller.
Curso 2021/2022
Hay vida después de Word y PowerPoint!. Este curso está orientado al uso avanzado de LaTeX (software libre), para el maquetado de alta calidad de documentos técnicos y científicos. Se profundizará en la elaboración de material gráfico de interés en diferentes áreas de la Ciencia, Tecnología, e Ingeniería. Está especialmente orientado a alumnos de Doctorado y Master que necesitan publicar artículos, informes técnicos, proyectos, Tesis o Libros.
El curso surge para dotar al alumnado de doctorado y máster de unas herramientas informáticas apropiadas para aumentar su productividad científica. Tiene como objetivo facilitar el proceso de elaboración de los resultados de investigación, haciendo hincapié en la generación de material gráfico. LaTeX es la herramienta ideal, pero debido a la gran cantidad de opciones disponibles, puede parecer difícil de dominar. Este curso tiene como principal objetivo guiar al alumnado de una manera sencilla y gradual para que se conviertan en usuario avanzado de LaTeX.
Conocimientos básicos de LaTeX. Que preferentemente deberían incluir: instalación, compilación, visor/editor de documentos. Se recomienda saber elaborar un documento básico, y conocer funcionalidades elementales como: tablas, bloques, comandos básicos, etc.
El curso está dirigido a estudiantes de la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías (EDCTI)
- Módulo 1: Maquetación de textos en LaTeX y Beamer para presentaciones.
- Módulo 2: Gráficos Vectoriales y uso de paquetes CTAN en LaTeX Ciencias, Tecnologías e Ingenierías.
- Módulo 3: Herramientas avanzadas en plantillas de LaTeX
20 hrs lectivas presenciales (teórico prácticas), y 32 hrs de trabajo del alumno (2 créditos ECTS). Clases de 2 hrs/diarias. Horario de mañana durante 2 semanas.
- Jose A. Dobado Catedrático de Univ.). Dpto. Química Orgánica. Fac. de Ciencias.
- Isaac Vidal Daza (Escala Técnica Informática). Apoyo a la Docencia. CSIRC
La superación del curso requerirá:
- Asistencia de al menos 70 % de las sesiones (50 % puntuación).
- Elaboración de un documento maquetado con LaTeX (25 % puntuación).
- Defensa oral con Beamer del trabajo realizado. (25 % puntuación).
MÓDULO 1: Uso Avanzado de LaTeX para maquetación de textos y Beamer para presentaciones (8 hrs)
Día 1: LaTeX avanzado (2 hrs)
Día 2: Generación de presentaciones con Beamer (2 hrs)
Día 3: Bases de datos con Biber y BibTeX (2 hrs)
Día 4: Uso de plantillas con LaTeX para el maquetado de los resultados de la investigación (2 hrs)
MÓDULO 2: Gráficos vectoriales y uso de paquetes de LaTeX en Ciencias, Tecnologías e Ingeniería (6 hrs)
Día 5: PGF/TikZ (2 hrs)
Días 6-7: Paquetes CTAN de CIENCIAS, TECNOLOGÍAS E INGENIERÍAS (4 hrs)
MÓDULO 3: Herramientas avanzadas en plantillas de LaTeX y presentación de trabajos (6 hrs)
Días 8-9: Maquetación avanzada en LaTeX (4 hrs)
Día 10: Presentación de trabajos (2 hrs)
Jose A. Dobado Facultad de ciencias
http://www.ugr.es/local/dobado
dobado@ugr.es
Es notorio que la Inteligencia Artificial (I.A.) permea todas las áreas de conocimiento y puede tener un impacto relevante en cuestiones sociales y económicas. Sin embargo, también es notorio que en muchos casos no se tiene conocimiento riguroso de sus potencialidades y limitaciones, entendiéndose más como un arcano con nombre bonito que como una disciplina científica bien asentada, que puede proporcionar soluciones a problemas para los que no las hay en todos los ámbitos del saber, y muy particularmente para muchas de las líneas de investigación más avanzadas (en las que se inscriben las tesis doctorales).
De cara a abrir ventanas de oportunidad para la investigación a partir de técnicas y modelos basados en I.A., es fundamental que los doctorandos conozcan de qué hablamos cuando hablamos de esa materia, cuáles son sus limitaciones y cuales sus perspectivas a corto plazo, desde un punto de vista científico, solido y riguroso.
En esta actividad de carácter esencialmente transversal y de máximo rigor científico, se plantea como objetivo principal clarificar las cuestiones básicas asociadas con la I.A., desterrar algunos de los mitos más usuales y proveer una explicación clara y sencilla de las principales técnicas que permiten la construcción de sistemas basados en IA.
- David A. Pelta Mochcovsky. Dpto de Ciencias de la Computación e Inteligencia Artificial. ETSI Informática y de Telecomunicación
- Carlos Cruz Corona. Dpto de Ciencias de la Computación e Inteligencia Artificial. ETSI Informática y de Telecomunicación
- José Luis Verdegay Galdeano. Dpto de Ciencias de la Computación e Inteligencia Artificial. ETSI Informática y de Telecomunicación
Dirigido a estudiantes de doctorado de la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías (EDCTI). En caso de sobrar plazas podrán ofrecerse a doctorandos de las Escuelas de Ciencias de la Salud (EDCS) y Humanidades, Ciencias Sociales y Jurídicas (EDHCSJ) que lo hayan solicitado.
- Un recorrido histórico por la IA.
- Representación del conocimiento.
- “Machine Learning”.
- Métodos de Búsqueda y Optimización.
- Procesamiento del lenguaje natural.
- Técnica de Recuperación de la Información.
- Procesamiento de Imágenes y Video.
- Robótica e IA.
Horario: 16:00 a 20:00hs
Seminario de Aplicaciones de IA en fecha por confirmar
El curso tendrá modalidad presencial. Los participantes que superen la evaluación, obtendrán un diploma de aprovechamiento del curso. Aquellos participantes que no la superen, obtendrán un diploma de asistencia.
A los solicitantes que no obtengan una plaza, se les ofrecerá la posibilidad de asistir como oyentes mediante conexión en streaming
La superación del curso requerirá:
1) la asistencia a (al menos) el 70% de las sesiones.
2) Realización de un informe bibliográfico.
Se podrá plantear de acuerdo a las dos vías siguientes:
a) Dado un problema de interés provisto por el/la estudiante, el informe recogerá que técnicas de IA se han aplicado para su resolución.
b) Dada una técnica de interés para el/la estudiante (por ej. técnicas de aprendizaje), el informe recogerá que problemas de su área se han resuelto con dicha técnica.
Los responsables del curso estarán abiertos a otras propuestas de trabajo.
Curso 2021/2022
20 y 21 de enero: De 9 a 13 horas
24 a 27 de enero: De 9 a 12 horas
28 Y 29 de abril: De 9 a 13 horas
3 a 6 de mayo: De 9 a 12 horas
28 de abril de 9 a 13 horas (Aula A20. Facultad de Ciencias)
29 de abril de 9 a 13 horas (Aula O04. Facultad de Ciencias)
3 y 4 de mayo de 9 a 12 horas (Aula O04. Facultad de Ciencias)
5 de mayo de 9 a 12 horas (Aula A20. Facultad de Ciencias)
6 de mayo de 9 a 12 horas (Aula O04. Facultad de Ciencias)
Es incuestionable la importancia que en las últimas décadas ha experimentado la aplicación de numerosas técnicas probabilístico-estadísticas en múltiples campos de aplicación. La razón última de ello viene motivada por la necesidad de describir y explicar la evolución de fenómenos, no sólo desde un punto de vista cualitativo sino cuantitativo, a la vez que se hace imprescindible en múltiples ocasiones poder inferir comportamientos futuros de los sistemas que son objeto de estudio.
El objetivo del curso es presentar una panorámica general, sobre todo desde el punto de vista de la aplicación de las técnicas presentadas en múltiples campos. En ese sentido, la idea principal de esta actividad es ilustrar a los alumnos sobre técnicas y métodos estadísticos mostrando una visión general de sus fundamentos así como una perspectiva de aplicaciones en diversos campos. Se hará especial hincapié sobre los fundamentos, condiciones de aplicabilidad e interpretación de resultados que ayuden a una mejor descripción de los fenómenos estudiados por los alumnos en el desarrollo de sus investigaciones. Otro de los objetivos del curso es el de mostrar la implementación de estas técnicas mediante R, introduciendo al alumno en el empleo de uno de los programas que mayor difusión ha adquirido en los últimos años.
1. Principios generales de inferencia. Modelos básicos: Problema de una muestra. Problema de dos muestras independientes y apareadas. Contrastes paramétricos y no paramétricos para una y dos muestras. M. Mar Rueda. 4 horas. 20 de enero.
2. Análisis de datos categóricos: Independencia y asociación en tablas bidimensionales. Independencia condicional y asociación parcial. Metodología de Mantel-Hanzel. Ana Aguilera. 4 horas. 21 de enero.
3. Modelos de regresión: Fco. De Asis Torres. 6 horas. 24 y 25 de enero.
a. Regresión lineal simple y múltiple.
b. Regresión logística binomial y multinomial. Regresión de Poisson. Regresión de Cox.
4. Técnicas de Análisis Multivariante: Modelo Lineal Multivariante: modelo de Regresión lineal múltiple multivariante y técnicas tipo MANOVA. Técnicas de reducción de dimensiones. Técnicas de clasificación automática. Beatriz Cobo. 6 horas. 26 y 27 de enero.
Se propondrá a los alumnos la realización de ejemplos de aplicación para la realización de prácticas individualizadas y tutorizadas de forma personalizada. De forma alternativa, esas prácticas podrían consistir en el asesoramiento estadístico sobre problemas concretos relacionados con el desarrollo de su tesis doctoral. Esta parte constituirá la evaluación final que determinará el grado de aprovechamiento del curso. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado.
Dra. María del Mar Rueda García.
Dra. Ana María Aguilera del Pino.
Dra. Beatriz Cobo Rodríguez.
Dr. Francisco de Asís Torres Ruiz.
- The course will be held presentially. Prof. Bro will intervene by virtual connection
- The course will be held in English.
It is necessary to have at least a B1 level (preferably B2 or higher). You can indicate in the “Observations” section your level of English and, if it is the case, if you have a certificate. / Este curso se impartirá íntegramente en inglés. Es necesario contar como mínimo con un nivel B1 (preferentemente B2 o superior). Pude indicar en el apartado “Observaciones” su conocimientos de inglés y en su caso si dispone de certificado para acreditarlo.
- It is requiered basic knowledge of MatLab. Those students who can provide certification of that knowledge will have preference in admission.
Do you have complicate data? Difficult to understand? With thousands of variables/observations? Or with too little observations? Missing data? Time series? Multiple sources? Big Data?
The course goal is to introduce the students to very powerful data visualization techniques to look into your data set. There is a bunch of Machine Learning (ML) methods that can do difficult tasks (like classification, modelling and prediction) using a black-box approach over data, deep learning being a popular example. This course shows a totally different approach to handling data, using ML only as an instrument (as a means) to understand your data. MEDA will show you how to look into your data set, regardless its complexity, so that you can find groups of individuals and classify them, understand relationships among measured quantities, detect anomalies, find parsimonious models, etc.
The course is led by Professor Rasmus Bro, world leading professor on data analysis in biological and food sciences, and his collaborator at the UGR Dr. José Camacho, specialist on data analysis in Big Data and Exploratory Data Analysis.
Professor Bro is a prominent figure in the field of data analysis and in particular in multivariate analysis. During the last two decades, Prof. Bro has been a principal actor in the development of multivariate analysis in chemical and biological applications in the chemometrics area, in which according to google scholar is the second top researcher. His vast research work is outstanding, presenting an H index equal to 78. Prof. Bro is the author of the most referenced tutorial of PARAFAC (2843 citations), the developer of an extensively used multi-way version of Partial Least Squares (N-PLS) and co-author of more than 200 publications mainly related to the use of multi-way analysis in real life applications. His contributions to the use of constrained modelling are also very relevant, including the use of sparse methodologies for data analysis, and he has co-authored relevant articles to the problem of data fusion, a main challenge in Big Data analyses. The international influence in the community of his course “Multi-way Analysis” and his monograph “Multi-way Analysis: applications in the chemical sciences” is widely recognized. Prof. Bro has taught courses on data analysis in dozens of public and private organizations around the world. From 2001, he is the head of ODIN, an industrial research consortium offering courses, workshops, international contacts and student collaboration.
José Camacho is full professor in the Department of Signal Theory, Networking and Communications and researcher in the Information and Communication Technologies Research Centre, CITIC for its initials in Spanish, both at the University of Granada, Spain. His research interests include exploratory data analysis, anomaly detection and optimization with multivariate techniques applied to data of very different nature, including personalized medicine and communication networks. He is especially interested in the use of exploratory data analysis to Big Data.
Every person analyze their own data under supervision of the teacher and writes a report. The report must be short and concise. A short description of the data and their background must be provided. A short description of aim of the present work must be provided. This aim is not necessarily the overall aim of the project from which the data stem (although this is of course nice). Rather the purpose should be chosen in order to test and evaluate the students’ ability to use the methods taught at the course. It is important to discuss in detail how the models have been critically used for the stated purposes.
Day 1: PCA (Prof. Bro & Dr. Camacho)
8:30-9:30 | Welcome (Bro & Camacho) |
9:30-10:00 | Introduction and algebra without tears |
10:00-11:15 | Principal Component Analysis – PCA |
11:15-11:30 | Break |
11:30-12:00 | Software introduction (demos/hands-on) |
12:00-12:30 | Exercises – PCA |
12:30-13:30 | Validation, outliers – PCA |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises – PCA |
Day 2: PLS (Prof. Bro)
9:00-9:15 | PCA summary |
9:15-10:30 | Multivariate calibration - PLS |
10:30-10:45 | Break |
10:45-11:30 | Exercises – Multivariate calibration |
11:30-13:00 | Validation and outliers incl. exercises |
13:00-15:00 | Lunch |
15:00-16:00 | Preprocessing and nice to know |
16:00-16:15 | Break |
16:15-18:00 | Competition! |
Day 3: MEDA Toolbox (Dr. Camacho)
9:00-10:00 | Introduction to the MEDA Toolbox |
10:00-11:15 | Using the command line interface |
11:15-11:30 | Break |
11:30-12:30 | Advanced Exploratory Data Analysis |
12:30-13:30 | Exercises & Examples |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 4: Big Data (Dr. Camacho)
9:00-11:00 | Extensions to Big Data: Big Observations |
11:00-11:30 | Break |
11:30-12:30 | Exercises |
12:30-13:30 | Extensions to Big Data: Big Variables |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 5: Playing with your data I (Prof. Bro & Dr. Camacho)
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals.
9:00-14:00 | Playing with your data |
Curso destinado a estudiantes de doctorado y master, usuarios y responsables de mantenimiento de sistemas de alto y ultra alto vacío: XPS, STM, sistemas de análisis de gases acoplados a termobalanzas, equipos de quimisorción.
Día 1. Tecnología del vacío. (3,5 h aula)
1) Descripción aplicaciones en procesos industriales: envasado de alimentos, aeronáutica y aeroespacial, energía fotovoltaica y termosolar, crecimiento de capas finas: metalización faros coches, espejos telescopios, vidrios arquitectónicos.
2) Descripción aplicaciones en investigación: nanotecnología y aceleradores de partículas.
3) Actividades StartUp
Dia 2. Espectrometría de masas cuadrupolar (2,5 h aula / 1 h visita CIC)
1) Espectros de gases residuales en cámara de alto y ultra alto vacío.
2) Sistemas análisis de gases- Descripción aplicaciones.
3) Generación hidrógeno verde.
Plazo de solicitud AMPLIADO hasta 16 de mayo 2022
Tema 1: La transición de estudiante a científico/a. Reflexiones sobre el sistema educativo. Elección de un problema científico relevante. La frontera del conocimiento. El sistema académico y científico español.
Tema 2: Creatividad y potencial creativo individual. Curiosidad y Generación de Ideas. Pensamiento creativo: Intuición, entrenamiento y placer. El proceso del descubrimiento.
Tema 3: Estrategias para fomentar la creatividad. Mentalidad de crecimiento, el pensamiento divergente, lateral y asociativo. Serendipia y oportunidad. Los errores como motor de aprendizaje.
Tema 4: Creatividad colectiva. Tormenta de ideas. Inteligencia colectiva como una propiedad emergente en grupos de investigación. Papel de la diversidad y estructura del grupo en la creatividad colectiva.
Tema 5: El método científico y la inferencia fuerte. El método hipotético-deductivo y el método inductivo en la era del bigdata. Generación de múltiples hipótesis y cómo refutar o confirmar las mismas.
Tema 6: Conducta responsable en ciencia. Origen de las buenas prácticas de laboratorio (GLP) y los sistemas de control de calidad. Integridad, plagio y fabricación. Análisis de casos. Ética en los científicos.
Tema 7: Ciencia patológica y pseudociencia. Autoengaño e interpretación ilusoria o errónea de los datos. Casos de estudio: Lysenko y el declive de la genética en la unión soviética. Pseudociencias y responsabilidad social de la ciencia.
Tema 8: La comunicación entre científicos 1. El poster y la comunicación oral. Recursos gráficos y calidad de las figuras. Técnicas de amplificación de la señal frente al ruido. Enfrentándonos al miedo escénico.
Tema 9: La comunicación entre científicos 2. El artículo científico. Importancia del título, el resumen, la calidad de las figuras y la legibilidad del texto. El párrafo como unidad de escritura. Cómo seleccionar la revista adecuada para mi investigación. Importancia de la “cover letter”. Proceso de revisión por pares y cómo aprender del rechazo. Redactar respuestas a los revisores
Curso destinado a alumnos de doctorado con un enfoque práctico hacia la interpretación de espectros 1D y 2D.
Tema I. Origen de la señal de RMN y núcleos activos en RMN. Desplazamiento químico. Integración. Factores que afectan al desplazamiento químico: efectos inductivos, mesómeros, cargas netas, anisotropía, campos eléctricos, van der Waals, enlaces de hidrógeno, efecto isotópico, efecto del medio. 2 h.
Tema II. El acoplamiento escalar. Espectros de primer orden: notación, tipos de acoplamientos (nJ, n ≥ 2), efecto tejado, árboles de desdoblamiento. Equivalencia química y equivalencia magnética. Relaciones entre estructura y magnitud relativa de los acoplamientos nJHH. Acoplamientos heteronucleares. Desacoplamiento homo y heteronuclear. Acoplamientos de orden superior a 1. 3 h.
Tema III. Concepto de relajación y factores de los que depende. Relación entre tiempos de relajación y estructura. El efecto Overhauser nuclear. Relación entre NOE y estructura. 1 h.
Tema IV. RMN dinámica: escalas de tiempo en RMN, efectos en el desplazamiento químico y en las constantes de acoplamiento. 1 h.
Tema V. RMN-13C{1H}: medida de espectros (efecto del desacoplamientos de 1H). Desplazamiento químico. Factores que afectan al desplazamiento químico. Edición de espectros. 2 h.
Tema VI. Introducción a la RMN bidimensional. Tipos de espectros y ejemplo de aplicación (resolución de problema estructural analizando COSY, HSQC y NOESY, sin otros concimientos previos). 1 h.
Tema VII. Espectros COSY, COSYDQF, TOCSY (incluido TOCSY selectivo), HSQC, HMQC, HMBC, NOESY, HOESY. 2 h.
Jueves 14 | Lunes 18 | Jueves 21 | Lunes 25 | Jueves 28 | Jueves 04 |
---|---|---|---|---|---|
Tema I/2 h | Tema II/2 h | Tema II/1 h | Tema IV/1 h | Tema V/1 h | Tema VII/2 h |
Tema III/1 h | Tema V/1 h | Tema VI/ 1 h |
El curso consta de tres módulos:
1. Perfil de investigador:- El perfil de investigador. Utilidad y necesidad.
- Necesidad de normalización del nombre de investigador.
-Números de identificación: ORCID, ResearcherID (WoS), Author ID (Scopus).
-Perfil y difusión de la investigación: ventajas y “herramientas”: UGR-Investiga, Google Scholar, Academia.edu, ResearchGate. Dialnet.
-El perfil de investigador y la evaluación de la producción científica. ANECA, DEVA y SICA. El CVN.
2. Bases de datos:- Bases de datos en: Ciencias, Tecnologías e Ingenierías y Ciencias de la Salud: JCR-Science, JCR-Social Science, WOS, SCOPUS, Digibug: Repositorio Institucional de la Universidad de Granada, SPI, TESEO
3. Gestores bibliográficos:- Introducción a los gestores bibliográficos
- Gestores bibliográficos: Mendeley, Flow, Endnote
Se ofertan 20 plazas. Es posible inscribirse durante cualquier año del doctorado. El taller está abierto tanto a doctorandos, tanto a tiempo completo como parcial.
Los alumnos crean un repositorio Git para el curso en http://bitbucket.org donde trabajan durante todo el taller y lo comparten con el profesor que, de esta forma puede seguir todo el trabajo que realizan los alumnos tanto durante las horas presenciales como en las no presenciales. Además, un Foro en la plataforma MOODLE permite la comunicación entre todos los participantes y la resolución de dudas y cuestiones de forma abierta y visible para todos los alumnos. Al final del taller el repositorio deberá contener la presentación de un texto científico que incluya bibliografía y diversos tipos de índices así como el historial de cambios de los archivos generados y situados bajo el control de Git. Siendo evaluado por el profesor responsable de la actividad.
La inscripción se realizará a través del siguiente ENLACE
Clave de matriculación que pedirá la plataforma al inscribirse: texgit2021
Desde el 01/03/2021 hasta completar el límite de plazas.
Para inscribirse hay que registrarse como usuario de la plataforma tras picar sobre el enlace del curso. Esto puede hacerse en cualquier momento aunque no esté abierto el plazo de matrícula. Cuando se abra el 1 de marzo, al picar sobre el curso se tendrá la posibilidad de inscribirse hasta que se complete el número de inscripciones.
El taller está directamente enfocado a la escritura de la Tesis Doctoral. Los alumnos aprenden a utilizar el sistema de composición de textos LaTeX para escribir textos científicos, manejo automático de la bibliografía, y generar documentos en distintos formatos a partir del código fuente. Asimismo aprenden a utilizar el sistema de control de versiones Git, que resulta de especial interés para la administración de trabajo colaborativo, como la redacción conjunta de artículos de investigación o las correcciones de la memoria de la Tesis doctoral por parte de sus directores, por lo que es recomendable que tanto alumnos como sus directores asistan conjuntamente a este taller.
Curso 2020/2021
18 y 19 de febrero: De 9 a 13 horas
22, 23, 24 y 25 de febrero: De 9 a 12
- 2ª edición exclusivamente para suplentes de la primera edición: del 28 de junio a 5 de julio (20 horas en formato virtual).
Es incuestionable la importancia que en las últimas décadas ha experimentado la aplicación de numerosas técnicas probabilístico-estadísticas en múltiples campos de aplicación. La razón última de ello viene motivada por la necesidad de describir y explicar la evolución de fenómenos, no sólo desde un punto de vista cualitativo sino cuantitativo, a la vez que se hace imprescindible en múltiples ocasiones poder inferir comportamientos futuros de los sistemas que son objeto de estudio.
El objetivo del curso es presentar una panorámica general, sobre todo desde el punto de vista de la aplicación de las técnicas presentadas en múltiples campos. En ese sentido, la idea principal de esta actividad es ilustrar a los alumnos sobre técnicas y métodos estadísticos mostrando una visión general de sus fundamentos así como una perspectiva de aplicaciones en diversos campos. Se hará especial hincapié sobre los fundamentos, condiciones de aplicabilidad e interpretación de resultados que ayuden a una mejor descripción de los fenómenos estudiados por los alumnos en el desarrollo de sus investigaciones. Otro de los objetivos del curso es el de mostrar la implementación de estas técnicas mediante R, introduciendo al alumno en el empleo de uno de los programas que mayor difusión ha adquirido en los últimos años.
1. Principios generales de inferencia. Modelos básicos: Problema de una muestra. Problema de dos muestras independientes y apareadas. Contrastes paramétricos y no paramétricos para una y dos muestras. M. Mar Rueda. 4 horas. 18 de febrero.
2. Análisis de datos categóricos: Independencia y asociación en tablas bidimensionales. Independencia condicional y asociación parcial. Metodología de Mantel-Hanzel. Ana Aguilera. 4 horas. 19 de febrero.
3. Modelos de regresión: Fco. De Asis Torres. 6 horas. 22 y 23 de febrero.
a. Regresión lineal simple y múltiple.
b. Regresión logística binomial y multinomial. Regresión de Poisson. Regresión de Cox.
4. Técnicas de Análisis Multivariante: Modelo Lineal Multivariante: modelo de Regresión lineal múltiple multivariante y técnicas tipo MANOVA. Técnicas de reducción de dimensiones. Técnicas de clasificación automática. Beatriz Cobo. 6 horas. 24 y 25 de febrero.
Se propondrá a los alumnos la realización de ejemplos de aplicación para la realización de prácticas individualizadas y tutorizadas de forma personalizada. De forma alternativa, esas prácticas podrían consistir en el asesoramiento estadístico sobre problemas concretos relacionados con el desarrollo de su tesis doctoral. Esta parte constituirá la evaluación final que determinará el grado de aprovechamiento del curso. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado.
Dra. María del Mar Rueda García. Carga docente: 0.5 créditos.
Dra. Ana María Aguilera del Pino. Carga docente: 0.5 créditos.
Dra. Beatriz Cobo Rodríguez. Carga docente: 1 crédito.
Dr. Francisco de Asís Torres Ruiz. Carga docente: 0.5 créditos.
Organizado por la Academia de Ciencias Matemáticas, Físico-Químicas y Naturales de Granada y la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías de la UGR.
Debido a medidas sanitarias, el evento se ofrecerá en línea.
El público deberá silenciar su micrófono al conectarse (desconectar la cámara es opcional). Con posterioridad a cada conferencia se abrirá un turno de preguntas y debate entre el conferenciante y los asistentes.
Por razones de logística, no se ofrecerá certificado de asistencia
Por: Juan Manuel García Ruiz. Profesor de Investigación. Instituto Andaluz de Ciencias de la Tierra (CSIC). Académico.
Por: Antonio García Casco. Catedrático de Petrología y Geoquímica de la UGR. Director de la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías.
Por: Fernando Bea Barredo. Catedrático de Petrología y Geoquímica de la UGR. Académico.
Por: Francisco González Lodeiro. Profesor Emérito. Dpto. de Geodinámica de la UGR. Académico.
- Antonio Jesús Muñoz Pajares (Dpto. Genética)
- Ana María Aguilera del Pino (Dpto. Estadística e I.O.)
- José María Conde Porcuna (Dpto. Ecología)
- Juan Lorite Moreno (Dpto. de Botánica)
- Rafael Rubio de Casas (Dpto. Ecología)
- María del Mar Rueda García (Dpto. Estadística e I.O.)
- Francisco de Asís Torres Ruiz (Dpto. Estadística e I.O.)
36 horas (29 horas de clases teórico-prácticas + 7 horas tutorías)
Horas no presenciales de los estudiantes: 25 horas de estudio/trabajo
Durante el año 2020 se impartirán las clases presenciales en junio-julio (por determinar en función de la evolución de la situación del coronavirus)
Posteriormente, se llevará a cabo la supervisión del trabajo de los alumnos de forma personalizada. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado según las afinidades previamente establecidas durante el curso.
La obtención de datos de diverso tipo, tanto de manera experimental como observacional, requiere necesariamente unos conocimientos estadísticos suficientes para su adecuado análisis, y así obtener las conclusiones pertinentes. En este curso de doctorado, los alumnos podrán aprender las técnicas más comunes para el análisis de datos y podrán aplicar los conocimientos que adquieran sobre los ficheros de datos que dispongan para la realización de sus Tesis doctorales. Los análisis que hagan con dichos ficheros serán supervisados inicialmente por el profesorado de la asignatura.
El objetivo del curso es que los estudiantes de doctorado conozcan y apliquen los métodos estadísticos más utilizados, fundamentalmente en Biología, para que puedan utilizarlos durante la realización de sus Tesis doctorales. En las clases se utilizarán datos reales como ejemplos para una mejor comprensión.
- Construir ficheros para análisis de datos
- Utilizar determinadas herramientas de análisis según su tipo de datos
- Los paquetes de R necesarios para distintos análisis de datos fundamentales
- Los scripts de R necesarios para distintos análisis de datos fundamentales
- Ejecutar distintos análisis estadísticos de datos
- Diseñar estudios experimentales
- Utilizar de forma básica el paquete estadístico R
- Interpretar resultados experimentales y/o observacionales básicos
- Localizar variables/factores relacionadas con nuestras variables de interés
- Elaborar modelos predictivos
Día 1, 9:00-12:00 (JM Conde)
Presentación del curso
Estadística básica.
Diseño experimental. Pseudoreplicación y pseudofactorialismo
Tipos de datos
Día 1, 12:30-14:30 (AJ Muñoz)
Estadística básica
Introducción a R
Correlaciones paramétricas y no paramétricas
Día 2, 9:00-11:00 (MM Rueda)
Inferencia básica
Problema de una muestra.
Problema de dos muestras independientes y apareadas.
Contrastes paramétricos y no paramétricos para una y dos muestras.
Día 2, 11:30-13:30 (F Torres)
Modelos lineales generales: Regresión lineal simple
Ajuste e interpretación de resultados.
Predicción. Calibración lineal.
Contraste de linealidad para datos repetidos.
Comprobación de asunciones
Día 3, 9:00-11:00 (F Torres)
Modelos lineales generales: Regresión lineal múltiple
Ajuste e interpretación de resultados.
Restricciones lineales.
Selección de regresores.
Día 3, 11:30-13:30 (MM Rueda)
Modelos lineales generalizados: variables explicativas cuantitativas
Regresión logística binomial y multinomial. Selección de regresores.
Regresión de Poisson.
Día 4, 9:00-11:00 (AM Aguilera)
Análisis de datos categóricos
Independencia y asociación en tablas bidimensionales.
Día 4, 11:30-13:30 (AM Aguilera)
Análisis de datos categóricos
Independencia condicional y asociación parcial.
Metodología de Mantel-Hanzel
Día 5, 9:00-11:00 (J Lorite)
Diseño de experimentos y análisis de la varianza (ANOVA).
Diseños completamente aleatorizados.
Diseños en bloques. Cuadrados latinos y grecolatinos.
ANOVA paramétrico
Día 5, 11:30-13:30 (J Lorite)
Diseño de experimentos y técnicas Anova asociadas.
ANOVA de medidas repetidas
Diseños anidados
Día 6, 9:00-11:00 (AJ Muñoz)
Contrastes múltiples no paramétricos
Muestras independientes: Análisis de Kruskal-Wallis
Muestras dependientes: Análisis de Friedman y Prueba de Cochran
Día 6, 11:30-13:30 (JM Conde)
Modelos lineales: variables explicativas cuantitativas y cualitativas
ANCOVA
Modelos y selección de modelos: AIC y AICc
Día 7, 9:00-11:00 (R Rubio)
Correlación y regresión de matrices de distancia
¿Qué es una matriz de distancia?
Análisis espacial: Análisis de Mantel simple
Día 7, 11:30-13:30 (R Rubio)
Correlación y regresión de matrices de distancia
Análisis de mantel parcial
Regresión múltiple de matrices (MRM)
Otras actividades: De manera no presencial, los alumnos irán trabajando con ficheros de datos de sus Tesis doctorales (si aún no dispusieran de ellos, se les entregarían ficheros de datos). Durante aproximadamente un mes, se llevará a cabo la supervisión del trabajo de los alumnos de forma personalizada. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado según las afinidades previamente establecidas.
El curso consta de tres módulos:
1. Perfil de investigador:- El perfil de investigador. Utilidad y necesidad.
- Necesidad de normalización del nombre de investigador.
-Números de identificación: ORCID, ResearcherID (WoS), Author ID (Scopus).
-Perfil y difusión de la investigación: ventajas y “herramientas”: UGR-Investiga, Google Scholar, Academia.edu, ResearchGate. Dialnet.
-El perfil de investigador y la evaluación de la producción científica. ANECA, DEVA y SICA. El CVN.
2. Bases de datos:- Bases de datos en: Ciencias, Tecnologías e Ingenierías y Ciencias de la Salud: JCR-Science, JCR-Social Science WOS, SCOPUS
- Bases de datos en: Humanidades, Ciencias Sociales y Jurídicas: JCR-Social Science, Arts and Humanities Citation Index, Dialnet
3. Gestores bibliográficos:- Introducción a los gestores bibliográficos
- Gestores bibliográficos: Mendeley, Flow, Endnote
A cargo del Centro de Lenguas Modernas
Nota: En función de la evolución de las regulaciones académicas, el curso 2 podría impartirse de forma presencial
A través del formulario accesible siguiente:
ENLACE DE INSCRIPCIÓN
1.1 English as a lingua franca in the scientific world. 1.2 Types of papers.
2.1 Sections. 2.2 Content. 2.3 Format and Layout. 2.4 Common errors.
3.1 Syntax and sentence structure. 3.2 Semantics and terminology. 3.3 Style and punctuation. 3.4 Common errors.
4.1 Keeping notes, annotations, notekeeping systems. 4.2 Keeping track of references. 4.3 Translation: problems and pitfalls. 4.4 Revising. 4.5 Expectations: Style guides, avoiding plagiarism, bibliography. 4.6 Useful links and tools.
- Depending on the Covid situation, the course will be held presentailly or virtually.
- The course will be held in English.
It is necessary to have at least a B1 level (preferably B2 or higher). You can indicate in the “Observations” section your level of English and, if it is the case, if you have a certificate. / Este curso se impartirá íntegramente en inglés. Es necesario contar como mínimo con un nivel B1 (preferentemente B2 o superior). Pude indicar en el apartado “Observaciones” su conocimientos de inglés y en su caso si dispone de certificado para acreditarlo.
- It is requiered basic knowledge of MatLab. Those students who can provide certification of that knowledge will have preference in admission.
Do you have complicate data? Difficult to understand? With thousands of variables/observations? Or with too little observations? Missing data? Time series? Multiple sources? Big Data?
The course goal is to introduce the students to very powerful data visualization techniques to look into your data set. There is a bunch of Machine Learning (ML) methods that can do difficult tasks (like classification, modelling and prediction) using a black-box approach over data, deep learning being a popular example. This course shows a totally different approach to handling data, using ML only as an instrument (as a means) to understand your data. MEDA will show you how to look into your data set, regardless its complexity, so that you can find groups of individuals and classify them, understand relationships among measured quantities, detect anomalies, find parsimonious models, etc.
The course is led by Professor Rasmus Bro, world leading professor on data analysis in biological and food sciences, and his collaborator at the UGR Dr. José Camacho, specialist on data analysis in Big Data and Exploratory Data Analysis.
Professor Bro is a prominent figure in the field of data analysis and in particular in multivariate analysis. During the last two decades, Prof. Bro has been a principal actor in the development of multivariate analysis in chemical and biological applications in the chemometrics area, in which according to google scholar is the second top researcher. His vast research work is outstanding, presenting an H index equal to 65. Prof. Bro is the author of the most referenced tutorial of PARAFAC (1933 citations), the developer of an extensively used multi-way version of Partial Least Squares (N-PLS) and co-author of more than 200 publications mainly related to the use of multi-way analysis in real life applications. His contributions to the use of constrained modelling are also very relevant, including the use of sparse methodologies for data analysis, and he has co-authored relevant articles to the problem of data fusion, a main challenge in Big Data analyses. The international influence in the community of his course “Multi-way Analysis” and his monograph “Multi-way Analysis: applications in the chemical sciences” is widely recognized. Prof. Bro has taught courses on data analysis in dozens of public and private organizations around the world. From 2001, he is the head of ODIN, an industrial research consortium offering courses, workshops, international contacts and student collaboration.
José Camacho is an associate professor in the Department of Signal Theory, Networking and Communications and researcher in the Information and Communication Technologies Research Centre, CITIC for its initials in Spanish, and in the Network Engineering & Security Group (NESG), both at the University of Granada, Spain. His research interests include exploratory data analysis, anomaly detection and optimization with multivariate techniques applied to data of very different nature, including industrial processes, chemometrics and communication networks. He is especially interested in the use of exploratory data analysis to Big Data.
Every person analyze their own data under supervision of the teacher and writes a report. The report must be short and concise. A short description of the data and their background must be provided. A short description of aim of the present work must be provided. This aim is not necessarily the overall aim of the project from which the data stem (although this is of course nice). Rather the purpose should be chosen in order to test and evaluate the students’ ability to use the methods taught at the course. It is important to discuss in detail how the models have been critically used for the stated purposes.
Day 1: PCA (Prof. Bro & Dr. Camacho)
8:30-9:30 | Welcome (Bro & Camacho) |
9:30-10:00 | Introduction and algebra without tears |
10:00-11:15 | Principal Component Analysis – PCA |
11:15-11:30 | Break |
11:30-12:00 | Software introduction (demos/hands-on) |
12:00-12:30 | Exercises – PCA |
12:30-13:30 | Validation, outliers – PCA |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises – PCA |
Day 2: PLS (Prof. Bro)
9:00-9:15 | PCA summary |
9:15-10:30 | Multivariate calibration - PLS |
10:30-10:45 | Break |
10:45-11:30 | Exercises – Multivariate calibration |
11:30-13:00 | Validation and outliers incl. exercises |
13:00-15:00 | Lunch |
15:00-16:00 | Preprocessing and nice to know |
16:00-16:15 | Break |
16:15-18:00 | Competition! |
Day 3: MEDA Toolbox (Dr. Camacho)
9:00-10:00 | Introduction to the MEDA Toolbox |
10:00-11:15 | Using the command line interface |
11:15-11:30 | Break |
11:30-12:30 | Advanced Exploratory Data Analysis |
12:30-13:30 | Exercises & Examples |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 4: Big Data (Dr. Camacho)
9:00-11:00 | Extensions to Big Data: Big Observations |
11:00-11:30 | Break |
11:30-12:30 | Exercises |
12:30-13:30 | Extensions to Big Data: Big Variables |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 5: Playing with your data I (Prof. Bro & Dr. Camacho)
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals.
9:00-14:00 | Playing with your data |
Curso 2020/2021
Hay vida después de Word y PowerPoint!. Este curso está orientado al uso avanzado de LaTeX (software libre), para el maquetado de alta calidad de documentos técnicos y científicos. Se profundizará en la elaboración de material gráfico de interés en diferentes áreas de la Ciencia, Tecnología, e Ingeniería. Está especialmente orientado a alumnos de Doctorado y Master que necesitan publicar artículos, informes técnicos, proyectos, Tesis o Libros.
LaTeX Avanzado: Aplicación en Ciencias, Tecnologías e Ingenierías
El curso surge para dotar al alumnado de doctorado y máster de unas herramientas informáticas apropiadas para aumentar su productividad científica. Tiene como objetivo facilitar el proceso de elaboración de los resultados de investigación, haciendo hincapié en la generación de material gráfico. LaTeX es la herramienta ideal, pero debido a la gran cantidad de opciones disponibles, puede parecer difícil de dominar. Este curso tiene como principal objetivo guiar al alumnado de una manera sencilla y gradual para que se conviertan en usuario avanzado de LaTeX.
Conocimientos básicos de LaTeX. Que preferentemente deberían incluir: instalación, compilación, visor/editor de documentos. Se recomienda saber elaborar un documento básico, y conocer funcionalidades elementales como: tablas, bloques, comandos básicos, etc.
El curso está dirigido a estudiantes de la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías (EDCTI)
- Módulo 1: Maquetación de textos en LaTeX y Beamer para presentaciones.
- Módulo 2: Gráficos Vectoriales y uso de paquetes CTAN en LaTeX Ciencias, Tecnologías e Ingenierías.
- Módulo 3: Herramientas avanzadas en plantillas de LaTeX
20 hrs lectivas presenciales (teórico prácticas), y 32 hrs de trabajo del alumno (2 créditos ECTS). Clases de 2 hrs/diarias. Horario de mañana durante 2 semanas.
- Jose A. Dobado Catedrático de Univ.). Dpto. Química Orgánica. Fac. de Ciencias.
- Isaac Vidal Daza (Escala Técnica Informática). Apoyo a la Docencia. CSIRC
La superación del curso requerirá:
- Asistencia de al menos 70 % de las sesiones (50 % puntuación).
- Elaboración de un documento maquetado con LaTeX (25 % puntuación).
- Defensa oral con Beamer del trabajo realizado. (25 % puntuación).
MÓDULO 1: Uso Avanzado de LaTeX para maquetación de textos y Beamer para presentaciones (8 hrs)
Día 1: LaTeX avanzado (2 hrs)
Día 2: Generación de presentaciones con Beamer (2 hrs)
Día 3: Bases de datos con Biber y BibTeX (2 hrs)
Día 4: Uso de plantillas con LaTeX para el maquetado de los resultados de la investigación (2 hrs)
MÓDULO 2: Gráficos vectoriales y uso de paquetes de LaTeX en Ciencias, Tecnologías e Ingeniería (6 hrs)
Día 5: PGF/TikZ (2 hrs)
Días 6-7: Paquetes CTAN de CIENCIAS, TECNOLOGÍAS E INGENIERÍAS (4 hrs)
MÓDULO 3: Herramientas avanzadas en plantillas de LaTeX y presentación de trabajos (6 hrs)
Días 8-9: Maquetación avanzada en LaTeX (4 hrs)
Día 10: Presentación de trabajos (2 hrs)
Jose A. Dobado Facultad de ciencias
http://www.ugr.es/local/dobado
dobado@ugr.es
Se necesita portátil propio (Mac o PC).
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
- Es un lenguaje muy fácil de aprender, siendo el lenguaje más recomendado para usuarios que no cuentan con conocimientos de programación.
- Es de código libre, por lo que no requiere una licencia para su uso.
- Es multiplataforma, pudiéndose utilizar en diferentes Sistemas Operativos com MAC, LINUX, Windows, etc.
- Python es un lenguaje de programación real, con todas las características de un lenguaje de programación orientado a objetos, a diferencia de otros lenguajes como matlab que carecen de algunas funcionalidades en este sentido.
- Tiene multitud de módulos y librerías externos que realizan numerosas funciones de gran utilidad para científicos e ingenieros. A este respecto, módulos específicos para realizar cálculos científicos como numpy, matplotlib y scipy, han hecho que este lenguaje esté ganando cada vez más popularidad entre científicos e ingenieros.
- Se integra perfectamente con LaTeX, permitiendo el formateo de ecuaciones y la realización de figuras para artículos científicos o informes técnicos.
- Es extensible y altamente configurable. Librerías como matplotlib permiten realizar infinidad de gráficos de muy alta calidad e interactivos.
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
El alumno sabrá:
1.- Los elementos básicos de un lenguaje de programación
2.- Tipos de variables y su manipulación
3.- Manipulación de listas, tuplas y diccionarios
4.- Flujos condicionales if y recursivos for
5.- Funciones básicas del lenguaje
6.- Creación de funciones propias
7.- Control de código y manejo excepciones
El alumno será capaz de:
1.- Crear scripts en python para resolver problemas
2.- Leer y analizar un programa escrito en Python
3.- Manejar los principales entornos de programación con IPython (Spyder y Jupyter)
4.- Leer y escribir datos en ficheros de texto
5.- Diseñar algoritmos para la resolución secuencial de problemas
6.- Depurar programas y reconocer los principales tipos de errores
Tema 1. Introducción (1h) Introducción a los lenguajes de programación Historia de Python Descarga e instalación de anaconda. La consola de Python. Partes principales del IDE Spyder.
Tema 2. Tipos básicos, variables y expresiones (4h) Tipos de datos en Python. Variables, operadores y expresiones. Instalar, importar y utilizar módulos en Python. Listas, tuplas y diccionarios.
Tema 3. Operadores y funciones (4h) Operador lógico if. Bucles for. Bucles while. Creación y utilización de funciones en Python.
Tema 4. Operación de entrada/salida y optimización de código (3h) Lectura de ficheros de texto. Escritura en archivos de texto. Módulos os y sys. Control de ficheros y directorios. Optimización de código. Tipos de errores principales en Python. Control de código y manejo excepciones.
Se necesita portátil propio (Mac o PC).
Para este curso es necesario acreditar un conocimiento básico del lenguaje Python 3. Con el fin de evaluar los conocimientos de Python requeridos, antes del inicio del curso se realizará un cuestionario online a los solicitantes. Los estudiantes que no superen la prueba, no se admitirán en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad. Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes. La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos. Una lista completa de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
1.- Manejo de matrices multidimensionales con numpy
2.- Funciones básicas para la creación y utilización de matrices de numpy
3.- Lectura-escritura en disco de datos
4.- Creación y representación de funciones matemáticas
5.- Creación de distintos gráficos con matplotlib
6.- Modificación de símbolos y leyendas
7.- Análisis de imagen con scipy
El alumno será capaz de:
1.- Crear y modificar gráficos
2.- Integrar LaTeX directamente en un gráfico
3.- Representar funciones y resolver ecuaciones matemáticas
4.- Entender la documentación de las librerías de Python
5.- Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Tema 1. Manejo de datos con numpy (4h) Constantes y funciones de numpy. Arrays de numpy. Métodos para la creación de arrays. Operaciones con arrays. Indexado y slicing en arrays. Leer y guardar arrays en archivos de texto.
Tema 2. Representación gráfica con matplotlib (4h) Representación básica de funciones Representación de varias curvas. Representación de nube de puntos Representación de histogramas y boxplots. Definiendo colores y símbolos. Añadiendo leyendas y etiquetas. Control de ejes. Representación de múltiples figuras.
Tema 3. Análisis numérico con scipy (2h) Ajuste e interpolación de datos. Tratamiento multidimensional de imágenes con ndimage.
Tema 4. Breve introducción a cython (2h). Creación y compilación de scripts usando Cython. Elementos básicos del lenguaje. Optimización de código con Cython.
En este Workshop se pretende poner en contacto por primera vez a las Universidades de Granada y Jiangsu University of Technology, China, después de la forma del acuerdo marco de colaboración, para progresar hacia una relación formal y mantenida en investigación y en formación doctoral. El profesor Cabrerizo participó en abril de 2019 en el “International Research and Education Forum” celebrado en la Jiangsu University of Technology en la ciudad de Changzhou en la República Popular China.
Los contenidos de esta primera reunión se refieren a los aspectos más generales de las estrategias en investigación conjunta. Los ponentes incluyen:
• Prof. Miguel A. Cabrerizo, Universidad de Granada
• Prof. Alidad Amirfazli, University of North York, Toronto, Canadá
• Prof. Wen Li, Jiangsu University of Technology
• Prof. Miguel A. Rodríguez Valverde, Universidad de Granada
todos ellos con amplia experiencia en investigación y experiencia de trabajo conjunto.
El establecimiento de vías de colaboración internacional es objetivo prioritario de la Escuela de Posgrado y de todos los Programas de Doctorado. Este Workshop puede contribuir a ese propósito, abriendo posibilidades de doctorados en cotutela, intercambios, estancias breves, etc., tanto de estudiantes como de profesorado.
Time | Activity | Instructor |
---|---|---|
por confirmar | Registration | |
Introduction and Welcome | Prof. Cabrerizo | |
Strategic Thinking about Research | Prof. Amirfazli | |
Break | ||
Conducting International Research Collaboration (A perspective from fast evolving China) | Prof. Li | |
Afternoon break | ||
Path to Publication - part 1 | Prof. Amirfazli | |
Path to Publication - part 2 | Prof. Li |
Time | Activity | Instructor |
---|---|---|
por confirmar | Registration | |
Proposal writing (hands-on examples) | Prof. Rodríguez-Valverde Prof. Amirfazli |
|
Break | ||
Working & Research with Industry | Prof. Li | |
Afternoon break | ||
Recognition and Awards | Prof. Amirfazli | |
Mentoring Principles | Prof. Li |
Dirigido preferentemente a alumnos/as de segundo año de Doctorado.
Para el buen aprovechamiento los alumnos deben tener un nivel razonable de inglés tanto hablado como escrito (al menos, B2).
Aquellos solicitantes que adjunten al correo de solicitud certificación del nivel de inglés (B2 o equivalente) tendrán preferencia sobre el resto para la participación en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción. IMPORTANTE adjuntar certificado del nivel de inglés (ver apartado “Plazas y perfil”).
1. Introduction.
1.1 English as a lingua franca in the scientific world
1.2 The need to publish
1.3 Types of paper
2. Organization.
2.1 Sections
2.2 Content
2.3 Format and Layout
2.4 Common errors
3. Language.
3.1 Syntax and sentence structure
3.2 Semantics and terminology
3.3 Style and punctuation
3.4 Common errors
Fechas | Horario |
---|---|
12, 13, 19, 20, 26 y 27 de febrero de 2020 | de 16:30 a 18:30 |
10, 11, 17 y 18 de marzo de 2020 | de 16:30 a 18:30 |
Se necesita portátil propio (Mac o PC).
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad.
Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
- Es un lenguaje muy fácil de aprender, siendo el lenguaje más recomendado para usuarios que no cuentan con conocimientos de programación.
- Es de código libre, por lo que no requiere una licencia para su uso.
- Es multiplataforma, pudiéndose utilizar en diferentes Sistemas Operativos com MAC, LINUX, Windows, etc.
- Python es un lenguaje de programación real, con todas las características de un lenguaje de programación orientado a objetos, a diferencia de otros lenguajes como matlab que carecen de algunas funcionalidades en este sentido.
- Tiene multitud de módulos y librerías externos que realizan numerosas funciones de gran utilidad para científicos e ingenieros. A este respecto, módulos específicos para realizar cálculos científicos como numpy, matplotlib y scipy, han hecho que este lenguaje esté ganando cada vez más popularidad entre científicos e ingenieros.
- Se integra perfectamente con LaTeX, permitiendo el formateo de ecuaciones y la realización de figuras para artículos científicos o informes técnicos.
- Es extensible y altamente configurable. Librerías como matplotlib permiten realizar infinidad de gráficos de muy alta calidad e interactivos.
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
El alumno sabrá:
1.- Los elementos básicos de un lenguaje de programación
2.- Tipos de variables y su manipulación
3.- Manipulación de listas, tuplas y diccionarios
4.- Flujos condicionales if y recursivos for
5.- Funciones básicas del lenguaje
6.- Creación de funciones propias
7.- Control de código y manejo excepciones
El alumno será capaz de:
1.- Crear scripts en python para resolver problemas
2.- Leer y analizar un programa escrito en Python
3.- Manejar los principales entornos de programación con IPython (Spyder y Jupyter)
4.- Leer y escribir datos en ficheros de texto
5.- Diseñar algoritmos para la resolución secuencial de problemas
6.- Depurar programas y reconocer los principales tipos de errores
Tema 1. Introducción (1h) Introducción a los lenguajes de programación Historia de Python Descarga e instalación de anaconda. La consola de Python. Partes principales del IDE Spyder.
Tema 2. Tipos básicos, variables y expresiones (4h) Tipos de datos en Python. Variables, operadores y expresiones. Instalar, importar y utilizar módulos en Python. Listas, tuplas y diccionarios.
Tema 3. Operadores y funciones (4h) Operador lógico if. Bucles for. Bucles while. Creación y utilización de funciones en Python.
Tema 4. Operación de entrada/salida y optimización de código (3h) Lectura de ficheros de texto. Escritura en archivos de texto. Módulos os y sys. Control de ficheros y directorios. Optimización de código. Tipos de errores principales en Python. Control de código y manejo excepciones.
Fechas | Hora |
---|---|
19, 20, 26 y 27 de Marzo de 2020 | 16:30 a 18:30 |
2, 3, 16, 17, 23 y 24 de Abril de 2020 | 16:30 a 18:30 |
Se necesita portátil propio (Mac o PC).
Para este curso es necesario acreditar un conocimiento básico del lenguaje Python 3. Con el fin de evaluar los conocimientos de Python requeridos, antes del inicio del curso se realizará un cuestionario online a los solicitantes. Los estudiantes que no superen la prueba, no se admitirán en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad.
Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos.
NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes.
La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos.
Una lista completa de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
1.- Manejo de matrices multidimensionales con numpy
2.- Funciones básicas para la creación y utilización de matrices de numpy
3.- Lectura-escritura en disco de datos
4.- Creación y representación de funciones matemáticas
5.- Creación de distintos gráficos con matplotlib
6.- Modificación de símbolos y leyendas
7.- Análisis de imagen con scipy
El alumno será capaz de:
1.- Crear y modificar gráficos
2.- Integrar LaTeX directamente en un gráfico
3.- Representar funciones y resolver ecuaciones matemáticas
4.- Entender la documentación de las librerías de Python
5.- Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Tema 1. Manejo de datos con numpy (4h) Constantes y funciones de numpy. Arrays de numpy. Métodos para la creación de arrays. Operaciones con arrays. Indexado y slicing en arrays. Leer y guardar arrays en archivos de texto.
Tema 2. Representación gráfica con matplotlib (4h) Representación básica de funciones Representación de varias curvas. Representación de nube de puntos Representación de histogramas y boxplots. Definiendo colores y símbolos. Añadiendo leyendas y etiquetas. Control de ejes. Representación de múltiples figuras
Tema 3. Análisis numérico con scipy (2h) Ajuste e interpolación de datos. Tratamiento multidimensional de imágenes con ndimage
Tema 4. Breve introducción a cython (2h). Creación y compilación de scripts usando Cython. Elementos básicos del lenguaje. Optimización de código con Cython.
- Course on line.
- The course will be held in English.
- It is requiered basic knowledge of MatLab. Those students who can provide certification of that knowledge will have preference in admission.
Do you have complicate data? Difficult to understand? With thousands of variables/observations? Or with too little observations? Missing data? Time series? Multiple sources? Big Data?
The course goal is to introduce the students to very powerful data visualization techniques to look into your data set. There is a bunch of Machine Learning (ML) methods that can do difficult tasks (like classification, modelling and prediction) using a black-box approach over data, deep learning being a popular example. This course shows a totally different approach to handling data, using ML only as an instrument (as a means) to understand your data. MEDA will show you how to look into your data set, regardless its complexity, so that you can find groups of individuals and classify them, understand relationships among measured quantities, detect anomalies, find parsimonious models, etc.
The course is led by Professor Rasmus Bro, world leading professor on data analysis in biological and food sciences, and his collaborator at the UGR Dr. José Camacho, specialist on data analysis in Big Data and Exploratory Data Analysis.
Professor Bro is a prominent figure in the field of data analysis and in particular in multivariate analysis. During the last two decades, Prof. Bro has been a principal actor in the development of multivariate analysis in chemical and biological applications in the chemometrics area, in which according to google scholar is the second top researcher. His vast research work is outstanding, presenting an H index equal to 65. Prof. Bro is the author of the most referenced tutorial of PARAFAC (1933 citations), the developer of an extensively used multi-way version of Partial Least Squares (N-PLS) and co-author of more than 200 publications mainly related to the use of multi-way analysis in real life applications. His contributions to the use of constrained modelling are also very relevant, including the use of sparse methodologies for data analysis, and he has co-authored relevant articles to the problem of data fusion, a main challenge in Big Data analyses. The international influence in the community of his course “Multi-way Analysis” and his monograph “Multi-way Analysis: applications in the chemical sciences” is widely recognized. Prof. Bro has taught courses on data analysis in dozens of public and private organizations around the world. From 2001, he is the head of ODIN, an industrial research consortium offering courses, workshops, international contacts and student collaboration.
José Camacho is an associate professor in the Department of Signal Theory, Networking and Communications and researcher in the Information and Communication Technologies Research Centre, CITIC for its initials in Spanish, and in the Network Engineering & Security Group (NESG), both at the University of Granada, Spain. His research interests include exploratory data analysis, anomaly detection and optimization with multivariate techniques applied to data of very different nature, including industrial processes, chemometrics and communication networks. He is especially interested in the use of exploratory data analysis to Big Data.
Every person analyze their own data under supervision of the teacher and writes a report. The report must be short and concise. A short description of the data and their background must be provided. A short description of aim of the present work must be provided. This aim is not necessarily the overall aim of the project from which the data stem (although this is of course nice). Rather the purpose should be chosen in order to test and evaluate the students’ ability to use the methods taught at the course. It is important to discuss in detail how the models have been critically used for the stated purposes.
Day 1: PCA (Prof. Bro & Dr. Camacho)
8:30-9:30 | Welcome (Bro & Camacho) |
9:30-10:00 | Introduction and algebra without tears |
10:00-11:15 | Principal Component Analysis – PCA |
11:15-11:30 | Break |
11:30-12:00 | Software introduction (demos/hands-on) |
12:00-12:30 | Exercises – PCA |
12:30-13:30 | Validation, outliers – PCA |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises – PCA |
Day 2: PLS (Prof. Bro)
9:00-9:15 | PCA summary |
9:15-10:30 | Multivariate calibration - PLS |
10:30-10:45 | Break |
10:45-11:30 | Exercises – Multivariate calibration |
11:30-13:00 | Validation and outliers incl. exercises |
13:00-15:00 | Lunch |
15:00-16:00 | Preprocessing and nice to know |
16:00-16:15 | Break |
16:15-18:00 | Competition! |
Day 3: MEDA Toolbox (Dr. Camacho)
9:00-10:00 | Introduction to the MEDA Toolbox |
10:00-11:15 | Using the command line interface |
11:15-11:30 | Break |
11:30-12:30 | Advanced Exploratory Data Analysis |
12:30-13:30 | Exercises & Examples |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 4: Big Data (Dr. Camacho)
9:00-11:00 | Extensions to Big Data: Big Observations |
11:00-11:30 | Break |
11:30-12:30 | Exercises |
12:30-13:30 | Extensions to Big Data: Big Variables |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 5: Playing with your data I (Prof. Bro & Dr. Camacho)
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals.
9:00-14:00 | Playing with your data |
Miguel Burgos Poyatos. Dpto. de Genética. Facultad de Ciencias.
20 horas en modalidad virtual + 20 horas no presenciales/trabajo personal
6, 8, 10, 13, 15, 17, 20 de abril 2020 de 11:00 a 14:00 todos los días excepto el viernes 17 que será de 12:00 a 14:00.
Virtual.
El límite de plazas se establecerá conforma a las posibilidades técnicas. Es posible inscribirse durante cualquier año del doctorado. El taller está abierto tanto a doctorandos, tanto a tiempo completo como parcial.
No es necesario acreditar conocimientos previos
Los alumnos crean un repositorio Git para el curso en http://Bitbucket.org donde trabajan durante todo el taller y lo comparten con el profesor que, de esta forma puede seguir todo el trabajo que realizan los alumnos tanto durante las horas presenciales como en las no presenciales. Además, un Foro en la plataforma MOODLE permite la comunicación entre todos los participantes y la resolución de dudas y cuestiones de forma abierta y visible para todos los alumnos. Al final del taller el repositorio deberá contener la presentación de un texto científico que incluya bibliografía y diversos tipos de índices así como el historial de cambios de los archivos generados y situados bajo el control de Git. Siendo evaluado por el profesor responsable de la actividad.
La inscripción se realizará a través del siguiente enlace:
http://mendel.ugr.es/genetica/course/index.php?categoryid=14
Desde el 19/03/2020 hasta completar el límite de plazas.
El taller está directamente enfocado a la escritura de la Tesis Doctoral. Los alumnos aprenden a utilizar el sistema de composición de textos LaTeX para escribir textos científicos, manejo automático de la bibliografía, y generar documentos en distintos formatos a partir del código fuente. Asimismo aprenden a utilizar el sistema de control de versiones Git, que resulta de especial interés para la administración de trabajo colaborativo, como la redacción conjunta de artículos de investigación o las correcciones de la memoria de la Tesis doctoral por parte de sus directores, por lo que es recomendable que tanto alumnos como sus directores asistan conjuntamente a este taller.
Andalusian Inter-University Institute for Earth System Research
Doctoral Programme in Biogeochemical Flow Dynamics and Its Applications - Doctoral School in Science, Technology and Engineering – University of Granada
I. Vulnerability of coastal ecosystems to climate change | ||
---|---|---|
9:30-10:15 | Rafael Muñoz Carpena Professor of Hydrology and Environmental Modeling at the University of Florida, USA |
|
10:15-10:45 | María Ángeles Serrano García Postdoctoral researcher at the University of Granada, Spain |
|
10:45-11:15 | Break | |
II. Soils and marine sediments under global change | ||
11:15-12:00 | Juan Carlos Santamarina Professor of Energy Resources and Petroleum Engineering at King Abdullah University of Science and Technology, Saudi Arabia |
|
12:00-12:30 | Pilar Díaz Carrasco Postdoctoral researcher at the University of Granada, Spain |
|
12:30-12:45 | Break | |
III. Spatio-temporal dynamics of flood risk | ||
12:45-13:30 | Andreas P. Zischg Associate Professor at the Institute of Geography of the University of Bern, Switzerland |
|
13:30-14:00 | Andrea Lira Loarca Postdoctoral researcher at the University of Granada, Spain |
|
14:00-16:00 | _ | Break |
IV. Hands-on short course: “Risk Analysis: A Global Sensitivity and Uncertainty Analysis framework” | ||
16:00-18:00 | Rafael Muñoz Carpena Professor of Hydrology and Environmental Modeling at the University of Florida, USA |
Es incuestionable la importancia que en las últimas décadas ha experimentado la aplicación de numerosas técnicas probabilístico-estadísticas en múltiples campos de aplicación. La razón última de ello viene motivada por la necesidad de describir y explicar la evolución de fenómenos, no sólo desde un punto de vista cualitativo sino cuantitativo, a la vez que se hace imprescindible en múltiples ocasiones poder inferir comportamientos futuros de los sistemas que son objeto de estudio.
Los fenómenos considerados por las Ciencias Experimentales consideran tanto situaciones estáticas como dinámicas, en las cuales el fenómeno estudiado evoluciona a lo largo del tiempo (o de una variable indexada según un criterio), lo cual motiva plantearse el estudio de variables temporales que respondan a situaciones concretas relacionadas con las variables estudiadas. Asimismo, dentro del ámbito estático lo habitual es tratar con múltiples variables que no pueden ser consideradas de forma aislada, sino formando parte de un diseño complejo.
Las dos situaciones descritas conllevan la necesidad de plantear un doble enfoque sobre el cual creemos que es interesante presentar una panorámica general, sobre todo desde el punto de vista de la aplicación de las técnicas presentadas en múltiples campos. En ese sentido, la idea principal de esta actividad es ilustrar a los alumnos sobre técnicas y métodos del Análisis Multivariante y de Cálculo Estocástico, mostrando una visión general de sus fundamentos así como una perspectiva de aplicaciones en diversos campos: Biología, Ecología, Recursos Energéticos,... Asimismo están previstas sesiones de prácticas en ordenador para ilustrar los métodos introducidos mediante implementaciones en R.
Por ello el curso se ha diseñado siguiendo dos bloques diferenciados:
1. Modelización mediante procesos estocásticos.
2. Técnicas de Análisis Multivariante.
1. Modelización mediante procesos estocásticos:
a. Visión general del concepto de proceso estocástico.
b. Cadenas de Markov y procesos de nacimiento y muerte.
c. Introducción a los procesos de difusión. Aplicación a la modelización de fenómenos de crecimiento. Inferencia y tiempos de primer paso.
2. Técnicas de Análisis Multivariante:
a. Modelo Lineal Multivariante: modelo de Regresión lineal múltiple multivariante y técnicas tipo MANOVA.
b. Técnicas de reducción de dimensiones. Técnicas de clasificación automática.
Fecha | Hora | Profesor/a | Lugar |
---|---|---|---|
Lunes 24/2 | 9:00-11:00 y 11:30-13:30 h | Prof.ª Pirozzi | Aula G17 |
Martes 25/2 | 9:00-11:00 y 11:30-13:30 h | Prof.ª Pirozzi | Aula G17 |
Miércoles 26/2 | 9:00-11:00 y 11:30-13:30 h | Doct. Ascione | Aula de ordenadores O06 |
Lunes 2/3 | 10:00-11:30 y 12:00-13:30 h | Prof.ª Cobo | Aula de ordenadores O04 |
Martes 3/3 | 10:00-11:30 y 12:00-13:30 h | Prof.ª Cobo | Aula de ordenadores O07 |
Miércoles 4/3 | 9:00-11:00 h (1) | Prof. Barrera | Aula de ordenadores O01 (1) |
11:30-14:00 h (2) | Prof. Barrera | Aula de ordenadores O04 (2) | |
Jueves 5/3 | 9:00-10:30 h | Prof. Barrera | Aula de ordenadores O01 |
Jueves 5/3 | 11:00-14:00 h | Prof. Serrano | Aula de ordenadores O08 |
IMPORTANTE: las clases de los días 24, 25 y 26 de febrero se impartirán en inglés por lo que es necesario contar con un nivel adecuado del idioma para su correcto aprovechamiento. El resto de clases se impartirán en español.
• Aula G17 (1ª planta sección de Geológicas).
• Aula de ordenadores O01 (ubicada en zona Biológicas junto al Decanato).
• Aula de ordenadores O08 (ubicada en zona Matemáticas).
• Antonio Jesús Barrera García. Universidad de Málaga.
• Beatriz Cobo Rodríguez. Universidad Complutense de Madrid.
• Enrica Pirozzi. Università degli studi di Napoli Federico II.
• Giacomo Ascione. Università degli studi di Napoli Federico II.
• Juan José Serrano Pérez. Universidad de Granada.
1. Perfil de investigador:- El perfil de investigador. Utilidad y necesidad.
- Necesidad de normalización del nombre de investigador. -Números de identificación: ORCID, ResearcherID (WoS), Author ID (Scopus).-Perfil y difusión de la investigación: ventajas y “herramientas”: UGR-Investiga, Google Scholar, Academia.edu, ResearchGate. Dialnet-El perfil de investigador y la evaluación de la producción científica. ANECA, DEVA y SICA. El CVN.
2. Bases de datos:- Bases de datos en: Ciencias, Tecnologías e Ingenierías y Ciencias de la Salud: JCR-Science, JCR-Social Science WOS, SCOPUS
- Bases de datos en: Humanidades, Ciencias Sociales y Jurídicas: JCR-Social Science, Arts and Humanities Citation Index, Dialnet
3. Gestores bibliográficos:- Introducción a los gestores bibliográficos
- Gestores bibliográficos: Mendeley, Flow, Endnote
Profesor 1: Juan Manuel Peralta Sánchez.
- El Dr. Juan Manuel Peralta Sánchez es investigador postdoctoral en el grupo de Carles Vilà, en la Estación Biológica de Doñana (CSIC). Su fuerte formación como biólogo evolutivo se ha complementado con conocimientos en comunidades bacterianas especialmente utilizando herramientas de secuenciación masiva. Su interés principal se focaliza en las relaciones que los vertebrados establecen con sus comunidades bacterianas, desde las comunidades de los huevos de las aves a los cambios en su microbiota intestinal.
Profesora 2: Sonia M. Rodríguez Ruano.
- La Dra. Sonia M. Rodríguez Ruano es actualmente investigadora postdoctoral en el Departamento de Parasitología de la Facultad de Ciencias de la University of South Bohemia (Ceske Budejovice, Czech Republic). Trabaja con diversos sistemas simbióticos bacterianos, especialmente estudiando la dinámica de las asociaciones entre microbiomas y hospedadores (parásitos hematófagos) en función de distintos factores ecológicos y fisiológicos (distribución geográfica, estacionalidad, capacidad vectorial…).
Fecha | Hora | Lugar |
---|---|---|
Martes 7 de enero | 09:30 - 14:00 | Aula MS1 (ubicada en Sótano de Matemáticas) |
Miércoles 8 de enero | 09:00 - 14:00 | Aula MS2 (ubicada en Sótano de Matemáticas) |
Jueves 9 de enero | 09:00 - 14:00 | Aula MS2 (ubicada en Sótano de Matemáticas) |
Viernes 10 de enero | 09:00 - 14:00 | Aula M02 (ubicada en Sección de Matemáticas) |
El alumno sabrá:- Elaborar y validar archivos de metadatos para ecología microbiana;
- Reconocer y hacer una valoración inicial de los archivos originales obtenidos de sequenciadores tipo Illumina (raw data);
- Procesar las lecturas del secuenciador para obtener tablas de asignación de variantes microbianas por muestra;
- Analizar los datos obtenidos para comparar distintas variables ecológicas, tratamientos experimentales, etc.;
El alumno será capaz de:- Realizar acciones básicas en líneas de comandos basadas en UNIX;
- Instalar y utilizar las herramientas básicas de Qiime2;
- Diseñar estudios para evaluar y comparar diversidad microbiana mediante secuenciación del 16S;
- Interpretar los resultados básicos de este tipo de estudios;
1. Introducción al estudio de comunidades bacterianas y secuenciación masiva
2. Instalación de programas y breve introducción a la línea de comandos
3. Instalación de Qiime2
4. Análisis upstream: del archivo de secuencias a la tabla de OTUs
5. Análisis downstream I: breve introducción a la ecología de comunidades y la diversidad bacteriana
6. Análisis downstream II: análisis básicos de diversidad desde la OTU table
7. Análisis downstream III: análisis adicionales de diversidad bacteriana
8. Dudas, sugerencias y despedida
Los alumnos deberán de presentar un trabajo fin de curso con los resultados de tareas que se les encomienden fuera de las horas presenciales. Los alumnos podrán realizar estas actividades mediante comunicación virtual con los profesores encargados del curso.
Ejercicio 1 – Sesión 1. Los alumnos instalarán el programa Sublime Text 3, un procesador de texto donde irán guardando los scripts que vayan corriendo. Esta instalación la realizarán desde la terminal UNIX. Deberán de crear un archivo log.sh como cuaderno de prácticas, donde irán guardando los comandos que han usado.
Ejercicio 2 – Sesión 2. Los alumnos crearan desde la terminal un árbol de carpetas y diferentes archivos con información adquirida con el uso de los comandos en la terminal UNIX. Importarán una pequeña base de datos con secuencias a QIIME2, realizaran la unión de secuencias forward y reverse y decidirán si el solapamiento es suficiente para seguir con él, o deberían de seguir los análisis posteriores solo con las secuencias forward. Este es el paso clave 1 en el análisis de secuencias.
Ejercicio 3 – Sesión 3. Los alumnos deberán de hacer un clustering de secuencias. La mitad de los alumnos la realizarán con Deblur y la otra mitad siguiendo DADA2. Tendrán que decidir qué tamaño de secuencia eligen para perder el mínimo de secuencias, pero con un tamaño razonable para la asignación taxonómica. Este es el paso clave 2 en el análisis de secuencias.
Ejercicio 4 – Sesión 4. Realizarán análisis de diversidad alfa y beta, y decidirán el nivel de rarefacción elegido, para maximizar el número de muestras, pero con un numero de secuencias con significado biológico. Este es el paso clave 3 en el análisis de secuencias.
Ejercicio 5 – Sesión 5. Realizaran análisis adicionales de diversidad (ANCOM, gneiss, heatmaps…). Importarán las figuras de diversidad y las añadirán a un archivo Word.
NO SE EMITIRÁ CERTIFICADO DEL CURSO A LOS ASISTENTES.
Entrada libre hasta completar aforo. Aquellos asistentes que deseen que se certifique su asistencia deben descargar el documento de asistencia disponible en el Portal de seguimiento académico de doctorandos (pestaña “DAD”), cumplimentar el mismo y llevarlo a la conferencia para que el organizador de la actividad se lo firme.
Wednesday October 30, 2019
10:30 - 11:30 am
Salón de Grados de la ETSIIT
https://goo.gl/maps/fjnv5LYpbz3gCtYo8
Abierto a los estudiantes del Programa de Doctorado en Ingeniería Civil y de las Escuelas de Doctorado de UGR.
En el marco del proyecto europeo SMARTi_ETN (Sustainable, Multifunctional, Automated, Resilient Transport Infrastructures, https://www.smartietn.eu/), la semana del 30 de septiembre a 4 de octubre de 2019, se celebrará en la ETSICCP de la UGR, la Autumn School (Training week) titulada “AUTOMATED TRANSPORT INFRASTRUCTURES” abierto a doctorandos del Programa de Ingeniería Civil y de las Escuelas de Doctorado de UGR.
Inscripción. La asistencia a las sesiones formativas es gratuita (aforo limitado). Los interesados en asistir deben enviar email a Ana Jiménez del Barco (ajbc@ugr.es) indicando nombre y apellidos, titulación, programa de doctorado al que pertenece y sesiones en las que está interesado asistir.
Las sesiones abiertas a investigadores externos a SMARTi son las siguientes (subrayados los de interés general):
12 de septiembre (jueves), 9:00-12:00 (JM Conde). Presentación del curso. Estadística básica. Diseño experimental. Pseudoreplicación y pseudofactorialismo. Tipos de datos.
12 de septiembre (jueves), 12:30-14:30 (Antonio Jesús Muñoz Pajares). Estadística básica. Introducción a R. Correlaciones paramétricas y no paramétricas.
13 de septiembre (viernes), 9:00-11:00 (MM Rueda). Inferencia básica. Problema de una muestra. Problema de dos muestras independientes y apareadas. Contrastes paramétricos y no paramétricos para una y dos muestras.
13 de septiembre (viernes), 11:30-13:30 (F Torres): Modelos lineales generales: Regresión lineal simple. Ajuste e interpretación de resultados. Predicción. Calibración lineal. Contraste de linealidad para datos repetidos. Comprobación de asunciones.
18 de septiembre (miércoles), 9:00-11:00 (F Torres): Modelos lineales generales: Regresión lineal múltiple. Ajuste e interpretación de resultados. Restricciones lineales. Selección de regresores.
18 de septiembre (miércoles), 11:30-13:30 (MM Rueda): Modelos lineales generalizados: variables explicativas cuantitativas. Regresión logística binomial y multinomial. Selección de regresores. Regresión de Poisson.
20 de septiembre (viernes), 9:00-11:00 (AM Aguilera): Análisis de datos categóricos. Independencia y asociación en tablas bidimensionales.
20 de septiembre (viernes), 11:30-13:30 (AM Aguilera): Análisis de datos categóricos. Independencia condicional y asociación parcial. Metodología de Mantel-Hanzel.
26 de septiembre (jueves), 9:00-11:00 (J Lorite): Diseño de experimentos y análisis de la varianza (ANOVA). Diseños completamente aleatorizados. Diseños en bloques. Cuadrados latinos y grecolatinos. ANOVA paramétrico.
26 de septiembre (jueves), 11:30-13:30 (J Lorite): Diseño de experimentos y técnicas Anova asociadas. ANOVA de medidas repetidas. Diseños anidados.
27 de septiembre (viernes), 9:00-11:00 (Antonio Jesús Muñoz Pajares): Contrastes múltiples no paramétricos. Muestras independientes: Análisis de Kruskal-Wallis. Muestras dependientes: Análisis de Friedman y Prueba de Cochran.
27 de septiembre (viernes), 11:30-13:30 (JM Conde): Modelos lineales: variables explicativas cuantitativas y cualitativas. ANCOVA. Modelos y selección de modelos: AIC y AICc.
4 de octubre (viernes), 9:00-11:00 (R Rubio): Correlación y regresión de matrices de distancia. ¿Qué es una matriz de distancia? Análisis espacial: Análisis de Mantel simple.
4 de octubre (viernes), 11:30-13:30 (R Rubio): Correlación y regresión de matrices de distancia. Análisis de mantel parcial. Regresión múltiple de matrices (MRM).
Otras actividades: De manera no presencial, los alumnos irán trabajando con ficheros de datos de sus Tesis doctorales (si aún no dispusieran de ellos, se les entregarían ficheros de datos). Desde el 9 de octubre hasta el 15 de noviembre de 2019, se llevará a cabo la supervisión del trabajo de los alumnos de forma personalizada. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado según las afinidades previamente establecidas el 8 de octubre de 2019.
Emil Julian Chibowski was born on May 14, 1943 in the Podlasie region of the Lublin district. In 1989 Emil Chibowski obtained scientific degree ‘professor of chemistry’. Then in 1993 he was nominated as a head of the Department of Physical Chemistry, which was later renamed as the Chair of Physical Chemistry and constituted of four Departments and he hold this position until 2012. Professor Emil Chibowski until now continues his researches in the Department of Interfacial Phenomena. Generally, he focuses his investigations on the interfacial phenomena occurring at solid/liquid, liquid/gas and liquid/liquid interfaces, involving electrochemical phenomena, intermolecular and interfacial interaction, floatability of minerals, wettability and adhesion, contact angles and contact angle hysteresis, surface free surface energy and its components of solids, stability of dispersed systems, emulsion stability, influence of the external radio-frequency and magnetic electric fields on the properties of dispersed systems, effects of solid surface plasma treatment, and superhydrophobic surfaces. Professor Emil Chibowski is author of 233 research papers published mostly in international top journals, including five chapters in books, of which over 60 are joined papers with foreign co-authors.
NO SE EMITIRÁ CERTIFICADO DEL CURSO A LOS ASISTENTES.
• Construirse un entorno de trabajo eficiente mediante el uso de diferentes herramientas informáticas • Dar formato a un documento LaTeX mediante el uso de paquetes y comandos en el preámbulo del documento. • Un conjunto de comandos y entornos de LaTeX que le permitirá la redacción de sus tesis doctoral y, por tanto cualquier otro documento científico. • Un conjunto de comandos de Git necesario para la gestión de versiones de su trabajo. • Un conjunto básico de órdenes de Bash para realizar las operaciones más comunes destd el terminal de Git. • Manejar bases de datos de bibliografía, importando citas directamente desde internet e incluirlas de forma automática en el texto y la lista de bibliografía. • Generar índices automáticos como tablas de contenidos, listas de figuras y de tablas. • Llevar el control de cambios de su trabajo mediante el sistema de control de versiones Git y trabajar con él de forma colaborativa con otras personas. • Algunas normas básicas de tipografía que le permitirán formatear el texto de forma profesional. • Crear pósteres para congresos con LaTeX. • Crear todo tipo de documentos, como cartas con membrete y espacio para firma y distribuir diferentes elementos en posiciones concretas dentro de la página. • Crear presentaciones dinámicas en pdf mediante el uso de beamer. El alumno será capaz de: • Utilizar JabRef para la gestión de bibliografía y su integración con LaTeX mediante el uso del paquete bibtex, así como con el editor utilizado para la escritura dle texto • Manejar el editor TexStudio para la composición de textos con LaTeX pósteres, cartas y todo tipo de documentos. • Moverse desde el terminal de Git por los diferentes directorios de su ordenador y crear direcorios nuevos, renombrar archivos, etc. • Crear todo tipo de documentos que incluyan tablas, grśficos, índices, referencias internas en el documento etc... • Mantener una distribución de LaTeX adecuada para su sistema operativo. • Trabajar de forma colaborativa usando Git como sistema de control de versiones.
Programa formativo (contenidos y horas, por temas/módulos): Bloque 1. Herramientas del curso • Instalación de LaTeX • Instalar LaTeX • The TeXLive Guide • ¿Cómo instalar LaTeX en Windows, Ubuntu y OS X? • The MacTeX Distribution • proTeXt • Editores • TeXworks • TeXstudio (Recomendado para principiantes) • vim (recomendado para expertos) • Instalación de Git • Instalar Git y obtener una cuenta en BitBucket Página • git-cola (un interfaz de git altamente cafeinado) • Manejo de bibliografía • Jabref (BibTeX) • Lista es-tex Bloque 2 • Introducción a vim • Vim: Referencia rápida (por Joaquín Ataz López) • Breve tutorial de vi/vim • Vim ’Cheat Sheets’ • Ejemplo de .vimrc Bloque 3 • Sesión de trabajo con git • Tutoriales de Git • git - the simple guide • Curso gratuito de Git en Udemy Bloque 4 • Manuales de LaTeX • LaTeX para humanidades • La Introducción no tan corta a LaTeX • Estructura de un documento LaTeX • Organización del documento • Comprehensive latex symbol list • detexify Bloque 5 • Tablas • Tablas en colores • Manual sobre tablas • Figuras Bloque 6 • Entornos matemáticos • speadtab (hojas de cálculo simples en LaTeX) Bloque 7 • Base de datos BibTex • Estilo de bibliografía • Preparar el archivo tex para el uso de bibliografía • Citar artículos dentro del texto • Manejar la Bibliografía con JabRef • Insertar citas desde JabRef • Estilos de bibliografía de revistas Bloque 8 • Manual de beamer • Tutorial de beamer • Otro tutorial • Tutorial en Inglés • Galería de temas • Temas de Beamer en una tabla • Beamer en CTAN • Temas de usuarios • Algunos temas de powerpoint hechos en beamer • Un tema moderno minimalista • Ejemplo de uso del tema minimalista • Colección de enlaces a más temas • Ejemplo para practicar Bloque 9 • Compilar con rubber • Compilar con cmake • Plantilla para tesis • Ejemplo de póster • Ejemplo de carta • Calendario • a0poster • a0size Bloque 10 • Catálogo de fuentes • Paquetes para cargar fuentes • Ejemplos de Fuentes (tex) • Ejemplos de fuentes (pdf) • Importar fuentes TrueType a LaTeX • Importar fuentes TrueType en LaTeX(2) • tex fonts cheat sheet • Cambiar nombres de índices y bibliografía
La actividad se compone de cuatro cursos, cada uno compuesto de 3 horas de exposición de resultados junto con dos horas de tutorías y discusión y evaluación propuestas de investigación.
La actividad se desarrollará en inglés y está dirigida a estudiantes de doctorado interesados en biomatemáticas, biofísica modelado de ecuaciones en derivadas parciales (EDP) y análisis de EDP.
Programa:
1. Immune response: emergent properties resulting from individual decisions
2. The advantages of knowledge: model - driven vaccine design
3. The algorithmic nature of bone remodeling
Los cursos se celebrarán en el aula de FisyMat de la Facultad de Ciencias entre los días 12 y 14 junio de 2019.
Contacto: Juanjo Nieto (email: --LOGIN--23ab411d8ab4fd837f1d74ed9ffaae01ugr[dot]es ).
Forma de inscripción y más información:
Fecha: 3 al 5 de Junio de 2019
Plazo de inscripción: 17 al 26 de Mayo de 2019
Horario y lugar de celebración:
Fecha | Horario | Lugar |
---|---|---|
Lunes 3 de junio | de 9h a 14h de 16h a 20h | Aula G22 (Facultad de Ciencias) |
Martes 4 de junio | de 9h a 14h de 16h a 20h | Aula G22 (Facultad de Ciencias) |
Miércoles 5 de junio | de 9 h a 14h de 16 a 20 h | Aula G22 (Facultad de Ciencias) |
Número de plazas: 20.
Dirigido a: doctorandos de todos los programas de la EDCTI
Forma de inscripción: Rellenar el siguiente FORMULARIO
Duración: 20 horas.
Para cualquier información contactar con Prof. Antonio Rodríguez Diéguez (antonio5@ugr.es) o Francisco Carrasco Marín (fmarin@ugr.es). Departamento de Química Inorgánica, Universidad de Granada.
La información se actualizará en la página del Programa de Doctorado en Química: http://doctorados.ugr.es/quimica
El Programa de Doctorado en Química y la Escuela de Doctorado de Ciencias, Tecnologías e Ingenierías organizan este curso para alumnos pertenecientes a cualquiera de los programas de doctorado de la Universidad de Granada. El objetivo del mismo es dar a conocer al alumno las principales técnicas de caracterización químicas y biológicas, que serán fundamentales para el desarrollo de sus correspondientes trabajos de investigación científica.
PROGRAMA
1. TÉCNICAS DE CARACTERIZACIÓN ESTRUCTURAL. DIFRACCIÓN DE RAYOS X. Preparación de la muestra. Difracción de rayos X en polvo. Difracción de Rayos X de monocristal. Programas para resolución estructural. Wingx, un interfaz veloz para la resolución. Mercury, análisis fiable estructural. Pov-ray, el diseño a la vanguardia.
2. CARACTERIZACIÓN INTEGRAL DE MATERIALES NANOESTRUCTURADOS. Orden mesoscópico en difracción de rayos X de polvo. Adsorción de gases inertes y tipos de isotermas. Composición y comparación de técnicas para la determinación de componentes elementales. Técnicas termogravimétricas para la cuantificación de carga en materiales funcionalizados. Técnicas de microscopía e imagen. Determinación de morfología y tamaño de partícula.
3. CARACTERIZACIÓN DE QUÍMICA SUPERFICIAL DE MATERIALES NANOESTRUCTURADOS. Movilidad electroforética. Propiedades ácido-base superficiales. Espectroscopia infrarroja (FTIR). Microcalorimetría de inmersión. Hidrofobicidad. Desorción a Temperatura Programada / espectroscopia de desorción térmica. Espectroscopia de fotoelectrónica de rayos-X (XPS).
4. CARACTERIZACIÓN FÍSICO-QUÍMICA DE CATALIZADORES. Conceptos generales. Porosidad y distribución de tamaños de poros -Fisisorción de gases a baja temperatura y porosimetría de mercurio-. Dispersión y naturaleza de la fase activa -Difracción de rayos-X, quimisorción, microscopía electrónica de transmisión, espectroscopia fotoelectrónica de rayos-X y reducción u oxidación a temperatura programada-. Determinación de la química superficial mediante moléculas sonda. Otras técnicas de caracterización.
5. CARACTERIZACIÓN DE NANOPARTÍCULAS. Panorámica general de las técnicas de análisis de nanopartículas (espectroscópicas y no espectroscópicas). Tamaño y distribución de tamaños: microscopía y medidas de dispersión de luz (Dynamic Light Scatetring y Nanoparticle Tracking Analysis). Técnicas espectroscópicas. Técnicas de separación (Cromatografía líquida (HPLC), Cromatografía de exclusión por tamaño (SEC), Hidrodinámica de flujo asistido (FFF)). Como abordar un problema en nanotoxicología: aspectos claves a tener en cuenta en un diseño experimental.
6. TÉCNICAS DE CARACTERIZACIÓN CELULAR. Características físico-químicas de las células. Cultivo celular y alteraciones fisiológicas en las membranas (pH, estrés oxidativo). Ensayos para la determinación de la citotoxicidad de un compuesto (Ensayo de reducción del MTT, XTT y MTS, Tinción con resazurina, Tinción con DAPI, Separación celular por citometría de flujo). Distribución intracelular de un compuesto mediante técnicas de microscopía de fluorescencia (Microscopía de epifluorescencia, Medida intracelular de iones (Ca2+, Fe2+) mediante sondas fluorescentes, Fluorescencia de reflexión interna total (TIRF), Inmunofluorescencia, Microscopía confocal). Técnicas de separativa (Tipos de cromatografía). Análisis y cuantificación de imágenes mediante el uso del image-J.
Profesorado: Antonio Rodríguez Diéguez. Alfonso Salinas Castillo. Luisa María Pastrana Martínez. Sergio Morales Torres. María Belén Fernández López. María Camprubí Robles. Santiago Gómez Ruiz.
+Info web del PD TIC
En 2011, la comunidad de Andalucía lanzó el primero proyecto genómico de España, el Proyecto Genoma Médico. Más de 1000 exomas entre controles sanos y pacientes de más de 30 enfermedades fueron secuenciados, adquiriendo una enorme experiencia en la gestión, manejo y análisis de datos genómicos. Esta experiencia en combinación con la mayor población de Europa (8'5 millones de personas) cubierta por una historia digital de salud, ha promovido recientemente la iniciativa andaluza de medicina personalizada. La novedad de esta iniciativa radica en la implementación de herramientas bioinformáticas dentro del sistema corporativo del servicio andaluz de salud (SAS) para unir los datos genómicos con la historia clínica del paciente. De esta forma, el sistema corporativo del SAS se convierte en un inmenso estudio clínico prospectivo en el que datos genómicos y datos de pacientes se van acumulando con el paso del tiempo, pudiendo ser explotados por sistemas inteligentes.
Para este fin, se está desarrollando el módulo de medicina personalizada (MMP) y su introducción en el sistema corporativo del SAS. MMP es una herramienta web que permite un diagnóstico semi-automático de enfermedades de origen genético y que está construido sobre tres importantes proyectos software: openCGA, Cellbase e IVA, utilizados en el proyecto de los 100.000 genomas de Reino Unido y desarrollados entre el área de bioinformática clínica de Andalucía y la Universidad de Cambridge.
Esta charla está indicada a estudiantes de doctorado relacionados con las TIC en general. Se abordarán las diferentes etapas de análisis de datos genómicos provenientes de tecnologías de secuenciación masiva, así como las herramientas software desarrolladas para el diagnóstico genético y basadas en sistemas inteligentes, escalables y de alto rendimiento.
La introducción de IA& ML en el dominio de la construcción está abriendo un amplio abanico de oportunidades de I+D+I y transferencia en un sector, como es el de la construcción, con un fuerte impacto económico y social no solo en España, sino también a nivel internacional, que además funciona de tractor de otros sectores industriales.
La búsqueda de mejoras en los procesos mediante estas tecnologías, y en general, en todo la actividad del sector, muy variada y amplia desde el punto de vista industrial y tecnológico, hace que sea un sector de futuro prometedor para la IA&ML.
Hasta el momento la penetración de estas técnicas en este sector de actividad ha sido muy limitado, lo que hace que existan buenas perspectivas de nuevas oportunidades tanto en la actividad I+D+I, como para los futuros investigadores involucrados tanto en IA& ML, como en ingeniería civil, construcción, etc...
Han pasado 10 años desde la irrupción de Hadoop en el panorama tecnológico. En una era donde los datos son un activo muy valioso y una ventaja competitiva clara, las empresas se están enfrentando al completo reto de obtener, manejar, gobernar y extraer valor real de una creciente cantidad de datos (de muy distinta naturaleza). Hadoop apareció como una promesa que iba a solucionar este problema... ¿ha sido así realmente? ¿Cuál es la situación actual de este ecosistema y como se prevé su evolución futura?
El ecosistema Hadoop está compuesto por múltiples tecnologías relacionadas entre sí. Es complejo el mero hecho de conocerlas, evaluar su uso potencial, ventajas e inconvenientes, alternativas,... etc. Además de lo anterior, han surgido diversas tecnologías alternativas que complementan o compiten con las propuestas del ecosistema Hadoop. ¿Cuál debe ser la elección de una empresa ante este escenario tan abierto? ¿Podemos anticipar cual será la evolución futura de este escenario?
Europa necesita innovaciones radicales que permitan crear nuevos mercados, mejoren la productividad y la competitividad de las empresas, generen nuevos puestos de trabajo y ayuden a incrementar la calidad de vida de las personas. Para ello la Comisión Europea, dentro del programa de trabajo Horizon 2020, desarrolla una iniciativa llamada EIC Accelerator pilot (SME Instrument). Esta iniciativa proporciona financiación a startups y PYMES con un alto perfil innovador, que tienen una idea disruptiva y pretenden llevarla al mercado. Estas ideas que suelen implicar un alto riesgo y tienen un alto potencial deben permitir la creación de nuevos productos, servicios o modelos de negocio.
En esta charla se va a presentar la visión de una evaluadora de propuestas del EIC Accelerator pilot (SME Instrument).
* Justificación de su interés general
Para los doctorandos TIC esta charla puede ser interesante si pretenden crear su propia empresa o startup al concluir su doctorado y así llevar al mercado alguna de las ideas innovadoras que están desarrollando en su tesis.
* Fecha: 7 de mayo de 2019, a las 12:30h. Lugar: Sala de Conferencias del CITIC.
Los avances actuales en el campo de las tecnologías lingüísticas están teniendo un alto impacto en distintos ámbitos de la sociedad. Desde los asistentes personales hasta la manipulación de noticias, estas herramientas están cambiando la forma en la que nos comunicamos y vivimos nuestro día a día. Entre estos ámbitos está el campo de la accesibilidad. Uno de los grandes obstáculos que encuentran las personas con discapacidad es la dificultad de comunicación, ya sea por la imposibilidad de uso del lenguaje natural, o por las dificultades de comprensión del mismo. El amplio abanico de tecnologías lingüísticas disponibles en la actualidad puede en este sentido mejorar la comunicación de este colectivo y mejorar su vida diaria. En esta charla veremos cómo algunas de estas tecnologías lingüísticas pueden tener un impacto en el desarrollo de herramientas de apoyo para personas con discapacidad. En estos desarrollos tiene gran importancia la adopción de metodologías centradas en el usuario, siempre adaptadas al marco concreto de la discapacidad.
La charla es altamente transversal ya que cubre tres áreas de investigación con gran interés en la actualidad: el procesamiento de lenguaje natural, la accesibilidad y el diseño centrado en el usuario. En la charla se verá a alto nivel cuál es el estado actual de cada una de ellas, y cómo las sinergias entre las mismas permiten el desarrollo de herramientas de apoyo para el colectivo de las personas con discapacidad.
En España generamos muchos y muy buenos perfiles basados en el conocimiento, en contraposición al tejido empresarial, que no está tan preparado para absorber y poner en valor dichos perfiles. En cambio ocurre lo opuesto en otros países, donde existe un gran tejido empresarial, pero tienen escasez de talento. Esto es un paradigma muy habitual, ya que cuando hay recursos de sobra, la gente no necesita hacer grandes carreras académicas para prosperar en el ecosistema en el que viven, en cambio cuando el país no es capaz de generar empleo suficiente, las personas tienen a seguir formándose para poder conseguir un futuro.
Debemos aprovechar nuestra coyuntura para hacernos globales. Estas son las grandes variables a nuestro favor:
- Los estudios superiores en España son de alta calidad.
- La formación es muy barata, en contraposición a otros países donde una carrera puede suponer 200.000 €.
- Nuestra cultura (latina - mediterránea) nos permite adaptarnos a la realidad en cada momento, y ser resolutivos.
- Solo nos falta creérnoslo, aprender inglés, y lanzarnos a sacarle provecho a nuestro conocimiento más allá de nuestras fronteras.
- Cuando competimos en mercados más grandes, nuestro talento se pone de manifiesto
This seminar has been thought for PhD students that are nowadays conducting research on different aspects of asphalt materials. The seminar has been organized in two days, starting with a lecture in which renowned academic experts with a wide expertise in this field will expose their view on how to face the upcoming challenges in asphalt pavements considering sustainability criteria. After the lectures, the PhD students will have the possibility to briefly present their research work, specially the research methodology in order the get a feedback that might help them to reach the best results possible.
17:00 – 17:45 Lecture 1. Future trends and challenges in asphalt pavements. Prof. Manfred Partl. Academic Guest of Empa
17:45 – 18:30 PhD students’ Work outreach. Supervised by Prof. Manfred Partl.
17:00 – 17:45 Lecture 2. Improving the sustainability of asphalt pavements. Prof. John Harvey. Department of Civil and Environmental Engineering. University of California.
17:45 – 18:30 PhD students’ Work outreach. Supervised by Prof. John Harvey.
Dirigido preferentemente a alumnos/as de segundo año de Doctorado.
Para el buen aprovechamiento los alumnos deben tener un nivel razonable de inglés tanto hablado como escrito (al menos, B2).
Aquellos solicitantes que adjunten al correo de solicitud certificación del nivel de inglés (B2 o equivalente) tendrán preferencia sobre el resto para la participación en el curso.
Fechas: 11, 13, 14, 18, y 21 de marzo de 2019 de 09:00 a 11:00h
Plazo de inscripción: del 1 al 25 de febrero al de 2019.
Forma de inscripción: Los alumnos deben mandar un email a la Escuela de Doctorado --LOGIN--8b94e2299bfb2d3eb4aad826231d40d7ugr[dot]es indicando en el Asunto “EDCTI-Writing a research paper in English”.
Fechas: 27 al 31 de mayo de 2019 de 09:00 a 11:00h
Forma de inscripción: Durante el mes de abril se solicitará confirmación de asistencia, por correo electrónico, a la lista de suplentes de la edición anterior.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción. IMPORTANTE adjuntar certificado del nivel de inglés (ver apartado “Plazas y perfil”).
* Programa:
1. Introduction.
1.1 English as a lingua franca in the scientific world
1.2 The need to publish
1.3 Types of paper
2. Organization.
2.1 Sections
2.2 Content
2.3 Format and Layout
2.4 Common errors
3. Language.
3.1 Syntax and sentence structure
3.2 Semantics and terminology
3.3 Style and punctuation
3.4 Common errors
26 y 28 de Marzo y 2, 4, 9 y 11 de Abril, de 2019 de 16:00 a 18:00h.
Se necesita portátil propio (Mac o PC).
Para este curso es necesario acreditar un conocimiento básico del lenguaje Python 3. Con el fin de evaluar los conocimientos de Python requeridos, antes del inicio del curso se realizará un cuestionario online a los solicitantes. Los estudiantes que no superen la prueba, no se admitirán en el curso.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad.
Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos.
NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes.
La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos.
Una lista completa de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
1.- Manejo de matrices multidimensionales con numpy
2.- Funciones básicas para la creación y utilización de matrices de numpy
3.- Lectura-escritura en disco de datos
4.- Creación y representación de funciones matemáticas
5.- Creación de distintos gráficos con matplotlib
6.- Modificación de símbolos y leyendas
7.- Análisis de imagen con scipy
El alumno será capaz de:
1.- Crear y modificar gráficos
2.- Integrar LaTeX directamente en un gráfico
3.- Representar funciones y resolver ecuaciones matemáticas
4.- Entender la documentación de las librerías de Python
5.- Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Tema 1. Manejo de datos con numpy (4h) Constantes y funciones de numpy. Arrays de numpy. Métodos para la creación de arrays. Operaciones con arrays. Indexado y slicing en arrays. Leer y guardar arrays en archivos de texto.
Tema 2. Representación gráfica con matplotlib (4h) Representación básica de funciones Representación de varias curvas. Representación de nube de puntos Representación de histogramas y boxplots. Definiendo colores y símbolos. Añadiendo leyendas y etiquetas. Control de ejes. Representación de múltiples figuras
Tema 3. Análisis numérico con scipy (2h) Ajuste e interpolación de datos. Tratamiento multidimensional de imágenes con ndimage
Tema 4. Breve introducción a cython (2h). Creación y compilación de scripts usando Cython. Elementos básicos del lenguaje. Optimización de código con Cython.
Primera Edición: 5, 7, 12, 14, 19 y 21 de Febrero de 2019, de 16:00 a 18:00h
Se necesita portátil propio (Mac o PC).
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad.
Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
- Es un lenguaje muy fácil de aprender, siendo el lenguaje más recomendado para usuarios que no cuentan con conocimientos de programación.
- Es de código libre, por lo que no requiere una licencia para su uso.
- Es multiplataforma, pudiéndose utilizar en diferentes Sistemas Operativos com MAC, LINUX, Windows, etc.
- Python es un lenguaje de programación real, con todas las características de un lenguaje de programación orientado a objetos, a diferencia de otros lenguajes como matlab que carecen de algunas funcionalidades en este sentido.
- Tiene multitud de módulos y librerías externos que realizan numerosas funciones de gran utilidad para científicos e ingenieros. A este respecto, módulos específicos para realizar cálculos científicos como numpy, matplotlib y scipy, han hecho que este lenguaje esté ganando cada vez más popularidad entre científicos e ingenieros.
- Se integra perfectamente con LaTeX, permitiendo el formateo de ecuaciones y la realización de figuras para artículos científicos o informes técnicos.
- Es extensible y altamente configurable. Librerías como matplotlib permiten realizar infinidad de gráficos de muy alta calidad e interactivos.
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
El alumno sabrá:
1.- Los elementos básicos de un lenguaje de programación
2.- Tipos de variables y su manipulación
3.- Manipulación de listas, tuplas y diccionarios
4.- Flujos condicionales if y recursivos for
5.- Funciones básicas del lenguaje
6.- Creación de funciones propias
7.- Control de código y manejo excepciones
El alumno será capaz de:
1.- Crear scripts en python para resolver problemas
2.- Leer y analizar un programa escrito en Python
3.- Manejar los principales entornos de programación con IPython (Spyder y Jupyter)
4.- Leer y escribir datos en ficheros de texto
5.- Diseñar algoritmos para la resolución secuencial de problemas
6.- Depurar programas y reconocer los principales tipos de errores
Tema 1. Introducción (1h) Introducción a los lenguajes de programación Historia de Python Descarga e instalación de anaconda. La consola de Python. Partes principales del IDE Spyder.
Tema 2. Tipos básicos, variables y expresiones (4h) Tipos de datos en Python. Variables, operadores y expresiones. Instalar, importar y utilizar módulos en Python. Listas, tuplas y diccionarios.
Tema 3. Operadores y funciones (4h) Operador lógico if. Bucles for. Bucles while. Creación y utilización de funciones en Python.
Tema 4. Operación de entrada/salida y optimización de código (3h) Lectura de ficheros de texto. Escritura en archivos de texto. Módulos os y sys. Control de ficheros y directorios. Optimización de código. Tipos de errores principales en Python. Control de código y manejo excepciones.
Profesores: Anne-Vinciane Doucet, Antonio Fernández Porcel, Mª Ángeles García Gil y Esteban López García
Fecha de realización: 5, 6 y 7 de Marzo (PRIMERA EDICIÓN)
Lugar de realización: Biblioteca Derecho (Calle Duquesa)
Horario: de 10 a 13 horas
Plazo de Inscripción: del 18 al 24 de febrero de 2019
Forma de Inscripción: Los alumnos deben mandar un email a --LOGIN--8b94e2299bfb2d3eb4aad826231d40d7ugr[dot]es indicando en el asunto “EDCTI-Inscripción a curso Herramientas de búsqueda y gestión de información para el desarrollo de la Investigación”. Deberán incluir nombre completo y/o pasaporte o DNI en el texto del mensaje.
Perfil: Dirigido a alumnos/as de primer año.
Nº Alumnos: 30 por grupo
Programa:
El perfil de investigador. Utilidad y necesidad.
Necesidad de normalización del nombre de investigador.
- Números de identificación: ORCID, ResearcherID (WoS), Author ID (Scopus).
- Perfil y difusión de la investigación: ventajas y “herramientas”: UGR-Investiga, Google Scholar, Academia.edu, ResearchGate, Dialnet
- El perfil de investigador y la evaluación de la producción científica. ANECA, DEVA y SICA. El CVN.
Bases de datos en Ciencias, Tecnologías e Ingenierías y Ciencias de la Salud: JCR-Science, JCR-Social Science WOS, SCOPUS
Bases de datos en Humanidades, Ciencias Sociales y Jurídicas: JCR-Social Science, Arts and Humanities Citation Index, Dialnet
Introducción a los gestores bibliográficos
Gestores bibliográficos: Mendeley, Flow, Endnote
Teaching hours: 30
Date: Nov 5th-9th 2018. From 12th until 16th of November the lecturers will be available to solve out doubts about the course.
Place:
Registration date: 05th-24th October 2018
Number of students (max.): 20
How to apply: Students must send an email to --LOGIN--8b94e2299bfb2d3eb4aad826231d40d7ugr[dot]es with the subject “EDCTI-Multivariate Exploratory Data Analysis (MEDA)”. It is required basic knowledge on Matlab. Students with a certificate about Matlab knowledge, have to attached it to the application e-mail and they will have preference for the course admission. Also Doctoral students from second or third year will have preference in the admission.
Do you have complicate data? Difficult to understand? With thousands of variables/observations? Or with too little observations? Missing data? Time series? Multiple sources? Do you want to find groups of individuals? Understand variables relations? Classify? Detect anomalies? Predict? The course goal is to introduce the students to very powerful data analysis techniques with which they will be able to better understand the features of their data and how a data set should be treated and analyzed to pursue their specific goals. The course is led by Professor Rasmus Bro, world leading professor on data analysis in biological sciences, and his collaborator at the UGR Dr. José Camacho, specialist on data analysis in Big Data and Cybersecurity.
Professor Bro is a prominent figure in the field of data analysis and in particular in multivariate analysis. During the last two decades, Prof. Bro has been a principal actor in the development of multivariate analysis in chemical and biological applications in the chemometrics area, in which according to google scholar is the second top researcher. His vast research work is outstanding, presenting an H index equal to 65. Prof. Bro is the author of the most referenced tutorial of PARAFAC (1933 citations), the developer of an extensively used multi-way version of Partial Least Squares (N-PLS) and co-author of more than 200 publications mainly related to the use of multi-way analysis in real life applications. His contributions to the use of constrained modelling are also very relevant, including the use of sparse methodologies for data analysis, and he has co-authored relevant articles to the problem of data fusion, a main challenge in Big Data analyses. The international influence in the community of his course “Multi-way Analysis” and his monograph “Multi-way Analysis: applications in the chemical sciences” is widely recognized. Prof. Bro has taught courses on data analysis in dozens of public and private organizations around the world. From 2001, he is the head of ODIN, an industrial research consortium offering courses, workshops, international contacts and student collaboration.
José Camacho is an associate professor in the Department of Signal Theory, Networking and Communications and researcher in the Information and Communication Technologies Research Centre, CITIC for its initials in Spanish, and in the Network Engineering & Security Group (NESG), both at the University of Granada, Spain. His research interests include exploratory data analysis, anomaly detection and optimization with multivariate techniques applied to data of very different nature, including industrial processes, chemometrics and communication networks. He is especially interested in the use of exploratory data analysis to Big Data for cybersecurity and networkmetrics.
Every person analyze their own data under supervision of the teacher and writes a report. The report must be short and concise. A short description of the data and their background must be provided. A short description of aim of the present work must be provided. This aim is not necessarily the overall aim of the project from which the data stem (although this is of course nice). Rather the purpose should be chosen in order to test and evaluate the students’ ability to use the methods taught at the course. It is important to discuss in detail how the models have been critically used for the stated purposes.
Day 1: PCA (Prof. Bro) | |
---|---|
9:00-9:15 | Welcome (Bro & Camacho) |
9:15-10:00 | Introduction and algebra without tears |
10:00-11:15 | Principal Component Analysis – PCA |
11:15-11:30 | Break |
11:30-12:00 | Software introduction (demos/hands-on) |
12:00-12:30 | Exercises – PCA |
12:30-13:30 | Validation, outliers – PCA |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises – PCA |
Day 2: PLS (Prof. Bro) | |
---|---|
9:00-9:15 | PCA summary |
9:15-10:30 | Multivariate calibration - PLS |
10:30-10:45 | Break |
10:45-11:30 | Exercises – Multivariate calibration |
11:30-13:00 | Validation and outliers incl. exercises |
13:00-15:00 | Lunch |
15:00-16:00 | Preprocessing and nice to know |
16:00-16:15 | Break |
16:15-17:45 | Competition! |
Day 3: MEDA & Big Data | (Dr. Camacho) |
---|---|
9:00-10:00 | Introduction to the MEDA Toolbox |
10:00-11:15 | Exploratory Data Analysis: Understanding Observations vs Variables |
11:15-11:30 | Break |
11:30-12:00 | Anomaly Detection with Multivariate Statistical Monitoring |
12:00-12:30 | Exercises |
12:30-13:30 | Extensions to Big Data |
13:30-15:30 | Lunch |
15:30-17:00 | Exercises |
Day 4: Playing with your data I (Prof. Bro & Dr. Camacho) |
---|
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals. |
Day 5: Playing with your data II (Prof. Bro & Dr. Camacho) |
---|
Time will be devoted to analyze your own data under the supervision of the course monitors, who will guide you through different analysis techniques to pursue your goals. |
Número máximo de alumnos: 20
Fecha: Septiembre-Octubre 2018 (ver más abajo)
Lugar: Seminario de Matemáticas-2, Facultad de Ciencias
Los alumnos deben mandar un email a la Escuela de Doctorado (--LOGIN--8b94e2299bfb2d3eb4aad826231d40d7ugr[dot]es ) indicando en el Asunto “Curso avanzado de análisis de datos en R”.
Plazo de inscripción: 13 de junio a 3 de julio de 2018. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Mohamed Abdelaziz (Dpto. Genética)
José María Conde Porcuna (Dpto. Ecología)
Beatriz Cobo Rodríguez (Dpto. Estadística e I.O.)
Juan Lorite Moreno (Dpto. Botánica)
Antonio Jesús Barrera García (Dpto. Matemática Aplicada, Universidad de Málaga)
Rafael Rubio de Casas (Dpto. Ecología)
José María Conde Porcuna --LOGIN--8e46e078d55c6e73915c4317437bc713ugr[dot]es
El objetivo del curso es que los estudiantes de doctorado que han cursado el Curso Básico de Análisis de Datos en R puedan profundizar en distintos aspectos específicos y avanzados en el análisis de datos que consideren necesarios para el desarrollo de sus Tesis doctorales. En el caso de no haber cursado el Curso Básico de Análisis de Datos en R, los estudiantes deberán tener conocimientos básicos de análisis de datos y haber utilizado con anterioridad el software R.
Presentación del Curso
Modelos Lineales Multivariantes
Problema de una muestra.
Problema de dos muestras independientes y apareadas.
Regresión lineal múltiple multivariante.
Modelos Lineales Multivariantes Diseños multivariantes. Manova
Análisis multivariantes: Técnicas de reducción de dimensiones y Ordenación
Análisis de componentes principales. Análisis factorial. 21 de septiembre (viernes), 9:00-10:00 (J Lorite)
Análisis multivariantes: Técnicas de de reducción de dimensiones y Ordenación
Análisis multidimensional de ordenación espacial (NMDS)
Análisis multivariantes: Técnicas de de reducción de dimensiones y Ordenación
Análisis de correspondencias (CA)
Análisis de correspondencia corregido (DCA)
Análisis multivariantes: Técnicas de Interpretación.
Análisis de redundancia (RDA)
Análisis multivariantes: Técnicas de Interpretación.
Análisis canónico de correspondencia (CCA)
Análisis canónico de correspondencia corregido (DCCA)
Contrastes de matrices de distancias.
Análisis de similaridad (ANOSIM)
Contrastes de matrices de distancias.
Procedimiento de permutación de respuesta múltiple (MRPP)
Análisis multivariante de la varianza utilizando matrices (NPMANOVA, adonis)
Técnicas de clasificación
Árboles de regresión clasificación
Correlaciones de matrices de distancia: Alternativas a Mantel
Técnicas de clasificación
Análisis discriminante.
Análisis clúster jerárquico y no jerárquico.
Modelos mixtos lineales generales y generalizados (GLMM)
Métodos y técnicas de estimación
Modelos mixtos lineales generales y generalizados (GLMM)
Selección de modelos
Significación de variables aleatorias
Inferencia Bayesiana: Modelos y técnicas de estimación
Introducción a la estadística bayesiana
Utilización de cadenas de Markov Monte Carlo (MCMC)
Información a priori
Inferencia Bayesiana: Modelos y técnicas de estimación
Interpretación
Modelos predictivos
De manera no presencial, los alumnos irán trabajando con ficheros de datos de sus Tesis doctorales (si aún no dispusieran de ellos, se les entregarían ficheros de datos).
Desde el 29 de octubre hasta el 14 de diciembre de 2018: Supervisión del trabajo de los alumnos de forma personalizada. Para dicha supervisión y evaluación, los estudiantes serán repartidos entre el profesorado según las afinidades previamente establecidas entre el 29 y el 31 de octubre de 2018.
Se evaluarán los análisis realizados por los estudiantes durante el periodo de supervisión de trabajos y se podrá valorar la actitud en clase y tutorías.
Horas presenciales: 34 horas (28 horas de clases teórico-prácticas + 6 horas tutorías)
Horas no presenciales: 25 horas de estudio/trabajo de los estudiantes y 1 hora tutorías electrónicas.
Destinado a Alumnos de las Escuelas de Doctorado de Ciencias, Tecnologías e Ingenierías y de Ciencias de la Salud.
Los alumnos deben mandar un email a la Escuela Internacional de Posgrado (actividadesdoctorado@ugr.es) indicando en el asunto “Curso inmunología frente a microorganismos y activación celular”.
En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según el orden de inscripción.
Ana Margarita Espino, profesora del Departamento de Microbiología, Facultad de Medicina de la Universidad de Puerto Rico, Campus de Rio Piedras. Puerto Rico.
1) Inmunidad contra los Microorganismos. A) Bacterias Intracelulares • Mecanismos de patogenicidad • Inmunidad innata • Inmunidad adaptativa • Mecanismos de evasión de la respuesta B) Bacterias extracelulares • Mecanismos a través de los cuales causan su patogenicidad • Inmunidad innata • Inmunidad adaptativa • Mecanismos de evasión de la respuesta C) Inmunidad a los Virus • Inmunidad innata y adaptativa • Mecanismos de evasión de la respuesta.
2) Receptores de tipo toll y su role en la inmunidad innata • Origen, estructura y distribución de TLRs • Ligando(s) y antagonistas para cada TLR • Rutas de señalización • TLRs y la susceptibilidad a las enfermedades • Funciones de los TLRs en el sistema nervioso central • Terapéuticas implicaciones de los TLRs.
3) Paradigma de la diferenciación de macrófagos en M1 y M2 • Origen de M1 y M2 y su contextualización inmunológica • Estímulos requeridos para M1 y para M2 • Selección de M1 y M2 en el contexto de las enfermedades infecciosas.
SEMINARIO 1. MODELOS MATEMÁTICOS Y SU RESOLUCIÓN UTILIZANDO LA TEORÍA DE GRUPOS DE TRANSFORMACIONES 1.1 Selección del modelo matemático 1.2 Clasificar las simetrías de Lie de los sistemas considerados. 1.3 Obtener los sistemas óptimos de subálgebras. 1.4 Determinar las soluciones de similaridad. 1.5 Obtención de los sistemas reducidos. 1.6 Aplicaremos métodos directos de resolución de ecuaciones diferenciales ordinarias.
SEMINARIO 2. MODELOS MATEMÁTICOS EN MEDICINA. 2.1 Desarrollar modelos de crecimiento de neoplasias. 2.2 Desarrollar modelos predictivos de supervivencia y de respuesta al tratamiento. 2.3 Desarrollar modelos de resistencia al tratamiento. 2.4 Ajustar los parámetros a partir de la información biológica disponible. 2.5 Validar y realizar simulaciones numéricas de dichos modelos. 2.6 Realizar estudio teórico de dicho modelo y conocer sus propiedades tales como puntos de equilibrio, tipo de soluciones, etc.
SEMINARIO 3. QUÍMICA MATEMÁTICA. 3.1. ¿Qué es la Química Matemática? Historia Definición Química Matemática 3.2. Relaciones Cuantitativas Estructura Actividad: QSAR 3.3. Teoría de grafos e índices topológicos 3.4. Topología Molecular 3.5. Los modelos matemáticos de la mecánica cuántica
SEMINARIO 4. MODELOS MATEMÁTICOS Y HERRAMIENTAS ESTADÍSTICAS APLICADOS EN QUÍMICA: CONCEPTO DE QUIMIOMETRÍA. 4.1. Optimización de los procedimientos y metodologías de análisis 4.2. Tratamiento de las señales de medida 4.3. Propagación de errores y trazabilidad de la medida 4.4. Validación y calibración de los métodos de análisis 4.5. Concepto de repetibilidad, reproducibilidad y tests de contrates 4.6. Tratamiento multivariante de los resultados 4.7. Definición de pautas de comportamiento de variables/muestras/analitos.
SEMINARIO 5. MODELOS MATEMÁTICOS Y SU APLICACIÓN EN EL CAMPO DE LOS FLUIDOS SUPERCRÍTICOS. 5.1. Termodinámica del equilibrio de fases 5.2. Extracción Supercrítica 5.3. Precipitación Supercrítica.
SEMINARIO 6. MODELOS MATEMÁTICOS DE LA MECÁNICA CUÁNTICA. 6.1. Sobre la formalización matemática de la Mecánica Cuántica. Espacios de Hilbert y álgebras de operadores. 6.2. Las álgebras no asociativas como modelos matemáticos de la Mecánica Cuántica. 6.3. Futuros desarrollos, retos y problemas.
SEMINARIO 7. MODELOS MATEMÁTICOS DE LA GENÉTICA. 7.1. Formalización matemática de las Leyes de Mendel 7.2. Modelos matemáticos algebraicos de la genética mendeliana y no mendeliana 7.3. Modelos matemáticos algebraicos de la Dinámica de poblaciones 7.4. Álgebras Genéticas. 7.5. Álgebras de evolución. 7.6. Interés y conexiones de las álgebras de evolución con distintas ramas de la Matemática y de la Ciencia. Futuras líneas de investigación
SEMINARIO 8. MODELOS MATEMÁTICOS DE LA DINÁMICA DE POBLACIONES. 8.1. Quadratic dynamical systems of bisexual population 8.2. Sex differentiation. 8.3. Dynamical systems generated by quadratic stochastic operators. 8.4. Results and open problems
SEMINARIO 9. ELABORACIÓN DE UNA PUBLICACIÓN CIENTÍFICA EN EL CAMPO DE LA MATEMÁTICA Y MATEMÁTICA APLICADA 9.1. A partir de una temática científica y la elaboración del survey, se enseñará al estudiante a elaborar un artículo científico. 9.2. Resolverá el modelo matemático planteado. 9.3. Seleccionará una revista para la posible publicación del mismo, descargándose los macros de la misma. 9.4. Se le mostrará los pasos que ha de seguir para el envío del artículo.
SEMINARIO 10. ELABORACIÓN DE UN “SURVEY” 10.1. Formulación de hipótesis de investigación 10.2. Diseño de la muestra 10.3. Recolección efectiva de los datos científicos. 10.4. Supervisión del trabajo de campo 10.5. Implementación de los datos 10.6. Análisis de los datos. 10.7. Elaboración del Informe de investigación con la presentación de los hallazgos de la investigación.
SEMINARIO 11. SIMETRIAS DE LIE PUNTUALES PARA PROBLEMAS LINEALES ASOCIADOS A ECUACIONES NO LINEALES INTEGRABLES EN DERIVADAS PARCIALES El método de determinación de las simetrías de Lie puntuales de una ecuación diferencial en derivadas parciales está perfectamente establecido. Igualmente establecido está el procedimiento para la determinación de las reducciones de similaridad asociadas a dichas simetrías. Como es bien sabido, una ecuación diferencial no lineal integrable lleva asociada un problema espectral lineal conocido como par de Lax. En este seminario pretendemos abordar el mucho menos estudiado problema de la determinación de las simetrías del problema lineal asociado a una PDE integrable. 11.1. Descripción del concepto de par de Lax 11.2. Simetrías de un par de Lax isoespectral 11.3. Simetrías de un par de Lax noisoespectral
SEMINARIO 12. SUPERFICIES DE CURVATURA MEDIA CONSTANTE EN ESPACIOS E(k,t) El objeto principal es dar una introducción a la teoría de superficies de curvatura media constante en espacios homogéneos riemannianos 3-dimensionales simplemente conexos con grupo de isometrías de dimensión 4. Dichos espacios están contenidos en una familia E(k,t), que depende de dos parámetros reales k y t, e incluye geometrías de Thurston como los espacios de curvatura constante R3 ,y S3, los productos H2xR, y S2xR, o los grupos de Lie Nil3, SU(2) y SL2 con ciertas métricas invariantes a izquierda. La teoría de superficies de curvatura media constante en E(k,t) es un campo de investigación muy activo que ha recibido una atención considerable durante las últimas décadas. 12.1. Propiedades básicas de los espacios E(k,t) 12.1.1. Clasificación de los espacios homogéneos 3-dimensionales. 12.1.2. Modelos para los espacios E(k,t) y estructuras de submersión de Killing. 12.1.3. Propiedades riemannianas: curvatura, geodésicas e isometrías. 12.1.4. Inmersiones isométricas y ecuaciones de compatibilidad. 12.1.5. Superficies totalmente umbilicales y superficies con curvaturas principales constantes. 12.2. Teoría conforme de superficies de curvatura media constante en E(k,t) 12.2.1. La diferencial de Abresch--Rosenberg. 12.2.2. Superficies invariantes y la clasificación de las esferas de curvatura media constante. 12.2.3. Aplicación de Gauss armónica para superficies de curvatura media crítica. 12.2.4. La deformación isométrica tipo Lawson 12.2.5. La dualidad conforme tipo Calabi. 12.3. Grafos, multigrafos y otras construcciones. 12.3.1. Multigrafos completos con curvatura media constante. 12.3.2. El problema de Bernstein para grafos de curvatura media crítica. 12.3.3. El problema de Jenkins--Serrin para grafos de curvatura media subcrítica. 12.3.4. Un breve recorrido por las superficies de curvatura media supercrítica.
SEMINARIO 13. MODELOS MATEMÁTICOS Y HERRAMIENTAS ESTADÍSTICAS APLICADOS EN FÍSICA 13.1 Conocimiento actual. Medida de datos experimentales. Magnitudes y unidades. Instrumentos de medida. 13.2 Error experimental. 13.3 Análisis de la distribución de datos. 13.4 Test estadísticos. 13.5 Ajuste de ecuaciones de datos experimentales
SEMINARIO | PROFESOR/ES |
---|---|
1 | Dra. Mª Luz Gandarias y Dra. Mª Santos Bruzón. UCA |
2 | Dr. Víctor Pérez UCLM |
3 | Dra. Concepción Fernández UCA |
4 | Dra. Dolores Galindo UCA |
5 | Dra. Clara Pereyra UCA |
6 | Dra. Mª Victoria Velasco UGR y Dr. Miguel Bustamente U.C.Dublin |
7 | Dra. Mª Victoria Velasco UGR |
8 | Dr. Miguel Piñar, UGR y Dra. Teresa Pérez UGR |
9 | Dra. Mª Victoria Velasco UGR y Dra. Mª Santos Bruzón de la UCA |
10 | Dra. Mª Victoria Velasco UGR y Dra. Mª Santos Bruzón de la UCA |
11 | Dra. Pilar García Estévez US |
12 | Dr. José Miguel Manzano (King’s College London) |
13 | Dr. José Luis Legido UVIGO |
Procedimientos para la evaluación: 1. Participación. 2. Análisis de contenido de los trabajos individuales y grupales realizados en las clases prácticas, en los seminarios de las actividades de evaluación y tutorías. 3. Otros procedimientos para evaluar la participación del estudiante en las diferentes actividades planificadas.
La calificación global responderá a la puntuación ponderada de los diferentes aspectos y actividades que integran el sistema de evaluación, de manera general se indica la siguiente ponderación, para cada uno de los seminarios: 1. Trabajos individuales y grupales: 40% 2. Prácticas y/o problemas: 30% 3. Actividades en seminarios: 15% 4. Otras actividades: 15%
Para desarrollar este proyecto, serán impartidos unos 16 seminarios, de hora y media cada uno, por doctores de prestigio que pertenecen a distintas ramas de las ciencias experimentales, de la salud e ingenierías tales como Biología, Medicina, Química, Física, Informática, Ingeniería Química y Matemáticas. Entre ellos, se incluirá un seminario de carácter eminentemente práctico que versará sobre la elaboración y preparación de un artículo científico para su publicación. Como primera aplicación del mismo se invitará a los alumnos a la elaboración de un survey sobre alguna de las temáticas tratadas en los seminarios. También se tiene previsto la impartición de un seminario sobre las herramientas que se usan en la actualidad para medir los índices de impacto y de calidad de las publicaciones científicas, intentando en la medida de lo posible desvelar buenas prácticas para potenciar la valoración de nuestras publicaciones. La propuesta metodológica de presentación de los contenidos matemáticos de este Proyecto estará basada en el que se denomina modelización matemática como herramienta de enseñanza-aprendizaje y estará centrada en los siguientes puntos:
1. Presentación de una situación simplificada del mundo real.
2. Traducción de la situación en terminología matemática y obtención del modelo.
3. Trabajar sobre el modelo y resolución del problema.
4. Presentación de la solución en términos no matemáticos.
En la actualidad se utilizan los modelos matemáticos en la mayoría de los campos de las ciencias y la ingeniería. Para construir un modelo matemático que simule un problema real hay que recurrir a una serie de hipótesis que describen el fenómeno que se ha de representar. Para resolver el problema se utilizan técnicas matemáticas que conducen a la solución del problema. En algunos casos es posible obtener soluciones analíticas del modelo e incluso se puede realizar un análisis cualitativo de las soluciones analíticas del modelo. En otras ocasiones hay que recurrir a técnicas numéricas que proporcionan una solución aproximada del problema matemático. Los resultados obtenidos analíticamente, numéricamente y experimentalmente se comparan entre sí con objeto de validar las hipótesis sobre las que descansa el modelo. De esta forma se verifica si el modelo es adecuado o no lo es.
• J. M. Smith, H. C. van Ness, M. M. Abbott, Introducción a la termodinámica en Ingeniería Química. McGraw-Hill (1997). • Supercritical Fluid Extraction. En “Separation and Purification Technologies in Biorefineries”, cap. 4, pp. 79-100. S. Ramaswamy, H. Huang, B. Ramarao (eds.). Edita: John Wiley & Sons (2013). ISBN: 978-0-470-97796-5. • Particles formation using supercritical fluids. En: Mass Transfer – Advanced Aspects, cap 20: 461-480. Ed. Hironori Nakajima. Publicado por InTech, Septiembre 2011. ISBN: 978-953-307-636-2 • Advances in Mathematical Chemistry and Applications. Volume 1 y 2. Basak S. C., Restrepo G., Villaveces J. L. (Bentham Science eBooks, 2015) • Molecular Descriptors for Chemoinformatics, by R. Todeschini and V. Consonni, Wiley-VCH, Weinheim, 2009. • Mathematical Chemistry Series, by D. Bonchev, D. H. Rouvray (Eds.), Gordon and Breach Science Publisher, Amsterdam, 2000. • Chemical Graph Theory, by N. Trinajstic, CRC Press, Boca Raton, 1992 • Mathematical Concepts in Organic Chemistry, by I. Gutman, O. E. Polansky, Springer-Verlag, Berlin, 1986. • Chemical Applications of Topology and Graph Theory, ed. by R. B. King, Elsevier, (1983). • A. Ankiewicz, Y. Wang, S. Wabnitz, and N. Akhmediev, Phys. Rev. E 89, (2014), 012907. • F. Calogero, Lett. Nuovo Cimento 14, 443 (1975). • P. G. Estevez, G. A. Hernaez, J. Nonlinear Math. Phys. 8, 106 (2001). • P. G. Estévez, M. L. Gandarias, J. Prada, Phys. Lett. A 343 (2005) 40-47. • P. G. Estévez J. D. Lejarreta, C. Sardón. Integrable 1+1 dimensional hierarchies arising from reduction of a non-isopectral problen in 2 + 1 dimensions, Applied Mathematics and Computation 224 (2013) 311-324. • P.G. Estévez, E. Diaz, F. Dominguez-Adame, Jose M. Cervero, E. Diez. Lump solitons in a higher-order nonlinear equation in 2+1 dimensions, Phys. Rev. E 93 (2016) 062219. • P. G. Estévez J. D. Lejarreta and C. Sardón. Symmetry computation and reduction of a wave model in 2 + 1 dimensions, Nonlinear Dyn. 87 (2017) 13-23. • R. Hirota, J. Math. Phys. 14, (1973), 805. • M. C. Nucci, The role of symmetries in solving differential equations. Math. Comput. Modelling 25, (1997), 181–193. • M. Lakshmanan, K. Porsezian, and M. Daniel, Phys. Lett. A 133, (1988), 483. • M. Legare, Symmetry Reductions of the Lax Pair of the Four-Dimensional Euclidean Self-Dual Yang-Mills Equations. J. Nonlin. Math. Phys. 3 (1996) 266-285. • S. Lie, Theorie der Transformationgruppen. 2, Teubner, Leipzig, (1890) 1 • P. J. Olver, Applications of Lie Groups to Differential Equations, Springer-Verlag, (1993). • L. V. Ovsiannikov, Group Analysis of Differential Equations, Academic Press New York (1982). • H. Stephani, Differential equations: their solution using symmetries. Cambridge University Press, Cambridge, (1990). • U. Abresch, H. Rosenberg. Generalized Hopf differentials. Mat. Contemp. 28 (2005), 1--28. • B. Daniel, L. Hauswirth, P. Mira, Constant mean curvature surfaces in homogeneous manifolds. Notes of the 4th KIAS Workshop on Differential Geometry, Seoul, (2009).
José Vicente Pérez Peña (UGR)
15 plazas. Dirigido preferentemente a alumnos/as de segundo año de doctorado con conocimientos de Python.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad.
Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos. La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes. La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos.
Una lista complete de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
El alumno sabrá:
El alumno será capaz de:
Los alumnos deben mandar un email a la Escuela de Doctorado (actividadesdoctorado@ugr.es) indicando en el Asunto “Inscripción curso Python Avanzado para Ciencia e Ingeniería”.
Plazo de inscripción: 4-20 de abril de 2018. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
15 plazas/edición. Dirigido preferentemente a alumnos/as de primer año de doctorado.
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
El alumno sabrá:
El alumno será capaz de:
Tema 1. Introducción (1h) Introducción a los lenguajes de programación Historia de Python Descarga e instalación de anaconda. La consola de Python. Partes principales del IDE Spyder.
Tema 2. Tipos básicos, variables y expresiones (4h) Tipos de datos en Python. Variables, operadores y expresiones. Instalar, importar y utilizar módulos en Python. Listas, tuplas y diccionarios.
Tema 3. Operadores y funciones (4h) Operador lógico if. Bucles for. Bucles while. Creación y utilización de funciones en Python.
Tema 4. Operación de entrada/salida y optimización de código (3h) Lectura de ficheros de texto. Escritura en archivos de texto. Módulos os y sys. Control de ficheros y directorios. Optimización de código. Tipos de errores principales en Python. Control de código y manejo excepciones
Los alumnos deben mandar un email a la Escuela de Doctorado (actividadesdoctorado@ugr.es) indicando en el Asunto “Inscripción curso Introducción a Python: Elementos básicos del lenguaje”.
Plazo de inscripción: 19 de marzo 2 de abril de 2018. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Las disciplinas que trabajan con el territorio han estado muy vinculadas desde sus orígenes al empleo de diferentes cartografías necesarias para llevar a cabo análisis y diagnósticos territoriales, y para plasmar las propuestas de intervención recogidas en proyectos constructivos o de investigación o en diferentes informes técnicos o documentos y artículos propios del proceso investigador. La utilización generalizada de estas cartografías temáticas ‘en papel’ ha dado paso en los últimos años a una continua digitalización y vectorización de las mismas, generando una cantidad ingente de información cartográfica disponible en diferentes servidores web’s y bases de datos, conformando las llamadas Infraestructuras de datos espaciales (IDEs). Por otro lado, la utilización de esta información requiere de un software específico, los Sistemas de Información Geográfica (SIG), que permita no sólo su visualización, sino también su procesamiento, teniendo éste innumerables aplicaciones. Dada su aplicabilidad a la problemática territorial, en los últimos años el Departamento de Urbanística y Ordenación del territorio de la Universidad de Granada ha comenzado a utilizar software de este tipo en las asignaturas de la titulación de Ingeniería de Caminos, Canales y Puertos. La elección para este curso de dos softwares (QGIS y ArcGIS) pretende que el alumnado se familiarice con la forma de trabajar de los SIG independientemente del software elegido, de código abierto o comercial. Por todo ello, parece imprescindible trasladar a la comunidad académica, por un lado, el acceso a las fuentes de información cartográfica digital más importantes, y por otro, algunas nociones básicas de los programas que permitan su procesamiento, con el fin de mejorar su aprendizaje y hacer más eficiente su trabajo, en parte, por el considerable ahorro de tiempo que supone el empleo de estas TIC’s.
El alumno sabrá:
El alumno será capaz de:
Se propone una evaluación continua compuesta de:
Dra. Pamela Faber Benítez, Catedrática Departamento de Traducción e Interpretación. Universidad de Granada.
30 horas (9 h presenciales + 21 trabajo personal).
Lugar: Facultad de Traductores. Aula 14.
Fechas: 17, 24 y 26 de enero de 2018 de 16:30h a 19:30h.
24 plazas.
Dirigido preferentemente a alumnos/as de segundo año de Doctorado.
Para el buen aprovechamiento de los alumnos, deben tener un nivel razonable de inglés tanto hablado como escrito (al menos, B2).
1. Introduction.
1.1 English as a lingua franca in the scientific world
1.2 The need to publish
1.3 Types of paper
2. Organization.
2.1 Sections
2.2 Content
2.3 Format and Layout
2.4 Common errors
3. Language.
3.1 Syntax and sentence structure
3.2 Semantics and terminology
3.3 Style and punctuation
3.4 Common errors
Carmen Domínguez Fernández, Anne-Vinciane Doucet, Antonio Fernández Porcel, Mª Ángeles García Gil y Esteban López García
13 a 15 Febrero (PRIMERA EDICIÓN)
20-22 de Marzo (SEGUNDA EDICIÓN)
Dirigido a alumnos/as de primer año.
Nº Alumnos: 30 por grupo
Lugar de realización Biblioteca Derecho (Ubicación Calle Duquesa)
Duración: 10-13 horas
Profesorado Vicerrectorado de Investigación y Transferencia
Duración, lugar y fecha
Plazas y perfil
Programa
1. Qué es un proyecto. Fases. Definición de objetivos. Planificación. Control. Justificación.
2. Principales convocatorias de financiación de proyectos de investigación para jóvenes doctores. Plan Estatal y Horizonte 2020.
3. Convocatorias de especialización posdoctoral en el Plan Estatal, Junta de Andalucía y Horizonte 2020.
4. Aspectos esenciales para la presentación de un proyecto con éxito.
5. Caso práctico de discusión y presentación de un proyecto.
Forma y plazo de inscripción
Profesorado José Vicente Pérez Peña (UGR), Patricia Ruano Roca (UGR)
Duración, lugar y fecha
Plazas y perfil 15 plazas. Dirigido preferentemente a alumnos/as de primer año de doctorado.
Justificación académica Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
Objetivos educativos, profesionales y competencias generales adquiridas El alumno sabrá: • Los elementos básicos de un lenguaje de programación • Tipos de variables y su manipulación • Manipulación de listas, tuplas y diccionarios • Flujos condicionales if y recursivos for • Funciones básicas del lenguaje • Creación de funciones propias • Control de código y manejo excepciones
El alumno será capaz de: • Crear scripts en python para resolver problemas • Leer y analizar un programa escrito en Python • Manejar los principales entornos de programación con IPython (Spyder y Jupyter) • Leer y escribir datos en ficheros de texto • Diseñar algoritmos para la resolución secuencial de problemas • Depurar programas y reconocer los principales tipos de errores
Programa Tema 1. Introducción (2h) • Introducción a los lenguajes de programación • Historia de Python • Elementos básicos de un lenguaje de programación • Descarga e instalación de anaconda con scipy • Python vs IPython • Partes principales de Spider • Introducción a los notebooks de IPython
Tema 2. Tipos básicos, variables y expresiones (4h) • Tipos de datos en Python • Variables, operadores y expresiones • Módulos math y random • Listas en Python • Métodos para la manipulación de cadenas de texto • Tuplas y diccionarios
Tema 3. Operadores y funciones (4h) • Operador lógico If • Bucles for • Bucles while • Creación y manejo de funciones • Ámbito de las variables • Funciones más importantes de Python
Tema 4. Operación de entrada/salida y optimización de código (4h) • Lectura de ficheros de texto • Escritura en archivos de texto • Módulos os y sys • Control de ficheros y directorios • Optimización de código • Tipos de errores principales en Python • Control de código y manejo excepciones
Forma y plazo de inscripción
Writing a research paper in English: strategies and techniques
Profesorado Dra. Pamela Faber Benítez, Catedrática Departamento de Traducción e Interpretación. Universidad de Granada.
Duración, lugar y fecha
Plazas y perfil
Programa 1. Introduction. 1.1 English as a lingua franca in the scientific world 1.2 The need to publish 1.3 Types of paper
2. Organization. 2.1 Sections 2.2 Content 2.3 Format and Layout 2.4 Common errors
3. Language. 3.1 Syntax and sentence structure 3.2 Semantics and terminology 3.3 Style and punctuation 3.4 Common errors
4 Strategies 4.1 Making notes 4.2 Keeping track of references 4.3 Translation: problems and pitfalls 4.4 Revising 4.5 Avoiding plagiarism
Competencias CA04 - Trabajar tanto en equipo como de manera autónoma en un contexto internacional o multidisciplinar. CA05 - Integrar conocimientos, enfrentarse a la complejidad y formular juicios con información limitada. CA06 - La crítica y defensa intelectual de soluciones. CB11 - Comprensión sistemática de un campo de estudio y dominio de las habilidades y métodos de investigación relacionados con dicho campo CB14 - Capacidad de realizar un análisis crítico y de evaluación y síntesis de ideas nuevas y complejas. CB15 - Capacidad de comunicación con la comunidad académica y científica y con la sociedad en general acerca de sus ámbitos de conocimiento en los modos e idiomas de uso habitual en su comunidad científica internacional.
Forma y plazo de inscripción
Profesorado José Vicente Pérez Peña (UGR)
Duración, lugar y fecha
Plazas y perfil
Justificación académica Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad.
Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos.
La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes.
La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos.
Una lista complete de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno sabrá: • Manejo de matrices multidimensionales con numpy • Funciones básicas para la creación y utilización de matrices de numpy • Lectura-escritura en disco de datos • Creación y representación de funciones matemáticas • Creación de distintos gráficos con matplotlib • Modificación de símbolos y leyendas • Funciones mátematicas de alto nivel y estadística con scipy
El alumno será capaz de: • Crear y modificar gráficos • Integrar LaTeX directamente en un gráfico • Representar funciones y resolver ecuaciones matemáticas • Entender la documentación de las librerías de Python • Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Programa formativo
Tema 1. Manejo de datos con numpy (5h) • Constantes y funciones de numpy • Arrays de numpy • Métodos para la creación de arrays • Operaciones con arrays • Indexado y slicing en arrays • Leer y guardar arrays en archivos de texto
Tema 2. Representación gráfica con matplotlib (4h) • Representación básica de funciones • Representación de varias curvas • Representación de nube de puntos • Representación de histogramas y boxplots • Definiendo colores y símbolos • Añadiendo leyendas y etiquetas • Control de ejes • Representación de múltiples figuras
Tema 3. Análisis numérico con scipy (3h) • Ajuste e interpolación de datos • Tratamiento multidimensional de imágenes con ndimage
Tema 4. Estadística con scipy (2h) • Estadística básica • Análisis espacial y clúster • Procesado de señales e imágenes
Forma y plazo de inscripción
Duración, lugar y fecha 10 horas, CVUG. Del 9 a 11 de Febrero, de 10 a 13 h.
Plazas y perfil 25 plazas. Dirigido preferentemente a alumnos/as de primer año de doctorado
Programa El curso consta de tres módulos.
Perfil del Investigador - Utilidad y necesidad. (Necesidad de normalización del nombre de investigador) (Números de identificación: ORCID, ResearcherID (WoS), Author ID (Scopus)). - Perfil y difusión de la investigación: ventajas y “herramientas”: UGR-Investiga, Google Scholar, Academia.edu, ResearchGate, Digibug, Dialnet. - El perfil de investigador y la evaluación de la producción científica. ANECA, DEVA y SICA. El CVN.
Bases de datos - Web of Science (WOS). - JCR: Journal Citation Reports- Sciences y Social Sciences. - Indice de Artes y Humanidades, Arts and Humanities Citation Index. - Scopus. - Dialnet.
Gestores bibliográficos - Introducción a los gestores bibliográficos. - Refworks/Flow. - Mendeley. - Endnote.
Profesorado
Biblioteca General de la Universidad:
Carmen Domínguez Fernández, Anne-Vinciane Doucet, Antonio Fernández Porcel, Mª Ángeles García Gil, Esteban López García, Camila Molina Cantero, Ana Peregrín González.
Forma de inscripción Los alumnos deben mandar un email a la Escuela de Doctorado (epdoctorado@ugr.es) con la palabra “Inscripción a cursos” en el asunto y con indicación de la escuela doctoral a la que pertenece también en el asunto.
Plazo de inscripción: del 11 al 20 de Enero. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Profesorado
José Vicente Pérez Peña (UGR), Patricia Ruano Roca (UGR)
Duración, lugar y fecha 12 horas presenciales (6 horas no presenciales). 7, 8, 14, 15, 21 y 22 de Abril. Sesiones Jueves y Viernes de 15:30 a 17:30 h. Aula Juan Campos (1ª planta del Hall de la Facultad de Ciencias). Se necesita portatil propio (Mac o PC).
Plazas y perfil
15 plazas. Dirigido preferentemente a alumnos/as de primer año de doctorado.
Justificación académica
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. Alguna de las características que hacen de Python el lenguaje ideal para cálculos científicos son:
En este curso se verán los elementos básicos de un lenguaje de programación como Python; sintaxis, funciones principales, flujos condicionales y bucles, etc. El conocimiento de las bases del lenguaje es un paso previo fundamental para poder sacar el mayor rendimiento de las librerías específicas más utilizadas en los ámbitos científico y técnico.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno sabrá: • Los elementos básicos de un lenguaje de programación • Tipos de variables y su manipulación • Manipulación de listas, tuplas y diccionarios • Flujos condicionales if y recursivos for • Funciones básicas del lenguaje • Creación de funciones propias • Control de código y manejo excepciones
El alumno será capaz de: • Crear scripts en python para resolver problemas • Leer y analizar un programa escrito en Python • Manejar los principales entornos de programación con IPython (Spyder y Jupyter) • Leer y escribir datos en ficheros de texto • Diseñar algoritmos para la resolución secuencial de problemas • Depurar programas y reconocer los principales tipos de errores
Programa
Tema 1. Introducción (2h) • Introducción a los lenguajes de programación • Historia de Python • Elementos básicos de un lenguaje de programación • Descarga e instalación de anaconda con scipy • Python vs IPython • Partes principales de Spider • Introducción a los notebooks de IPython
Tema 2. Tipos básicos, variables y expresiones (4h) • Tipos de datos en Python • Variables, operadores y expresiones • Módulos math y random • Listas en Python • Métodos para la manipulación de cadenas de texto • Tuplas y diccionarios
Tema 3. Operadores y funciones (4h) • Operador lógico If • Bucles for • Bucles while • Creación y manejo de funciones • Ámbito de las variables • Funciones más importantes de Python
Tema 4. Operación de entrada/salida y optimización de código (4h) • Lectura de ficheros de texto • Escritura en archivos de texto • Módulos os y sys • Control de ficheros y directorios • Optimización de código • Tipos de errores principales en Python • Control de código y manejo excepciones
Forma de inscripción
Los alumnos deben mandar un email a la Escuela de Doctorado (epdoctorado@ugr.es) con la palabra “Inscripción a cursos” en el asunto y con indicación de la escuela doctoral a la que pertenece también en el asunto.
Plazo de inscripción: 7-18 de marzo de 2016. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Profesorado José Vicente Pérez Peña (Departamento de Geodinámica)
Duración, lugar y fechas
Plazas y perfil
Justificación académica Excel es uno de los programas más populares para gestión, tratamiento y análisis de datos científicos. Incluye multitud de utilidades y funciones que lo hacen una herramienta imprescindible para el científico. Además de toda la funcionalidad que incluye este programa, cuenta con la posibilidad de expandir su utilidad mediante la programación de macros.
La palabra macro es una abreviatura de “macroinstrucción”, es decir un conjunto de instrucciones que se ejecutan secuencialmente. Una macro es un pequeño programa que realiza una tarea específica a través de una serie de instrucciones. Este pequeño programa se encuentra dentro de la aplicación principal, y por lo tanto puede acceder a todas las funcionalidades de la misma. Es decir, una macro dentro de Excel podrá acceder a los libros, hojas, formulas, celdas, … de la aplicación principal.
Mediante la programación de macros podremos automatizar tareas que impliquen numerosos pasos, definir funciones a medida y utilizarías como las demás funciones incluidas en Excel, añadir funcionalidad extra mediante formularios, botones, menus, etc. Este curso está dirigido a estudiantes de doctorado que quieran expandir las posilbidades que MS Excel cuenta para el análisis y gestión de datos. En este curso se explorará la creación y edición de Macros, así como los fundamentos del leguaje Visual Basic y el modelo de objetos específico utilizado por Excel.
Objetivos educativos, profesionales y competencias generales adquiridas
Programa
Forma y plazo de inscripción
Profesorado
Duración, lugar y fecha
Plazas y perfil
Justificación académica La mayoría de las revistas científicas aceptan, exclusiva o preferentemente, fuentes del sistema de creación de documentos LaTeX. La facilidad en la gestión de la bibliografía, la calidad de la tipografía y los gráficos hacen que se puedan crear con relativa facilidad documentos profesionales y sobre todo científicos.
En este curso se enseña a trabajar un documento científico en todos sus aspectos, desde el contenido hasta los gráficos y la bibliografía. Como normalmente este trabajo se hace en colaboración, aparte de herramientas como Authorea u Overleaf, se puede trabajar en local usando repositorios de código, que no sólo evitan conflictos, sino que permiten interaccionar fácilmente a los investigadores, asignar tareas y expresar la terminación de tales tareas. La combinación de las dos herramientas, que se explica en este curso, permitirá a los estudiantes trabajar de forma más eficiente, rápida y reproducible y crear documentos que se ajusten a los requisitos de revistas y congresos.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno sabrá:
El alumno será capaz de:
Programa Día 1. LaTeX: Nociones básicas de LaTeX y su funcionamiento. Procesadores de textos y su historia. Consiguiendo e instalando LaTeX. Instalando LaTeX en Windows. • ¿Problemas con la instalación de LaTeX? • Trabajando con LaTeX. Git: Introducción a Git. Sistemas de control de fuentes, por qué usarlos. Qué es Git, de dónde viene. • Introducción a la línea de comandos. Instalación y configuración de Git. Clientes GUI para Linux, Windows y Mac. • Uso básico de Git. Crear y usar repositorios locales. Flujo de trabajo. Archivo gitnore, tags. • Logs y herramientas de análisis, recuperar versiones anteriores.
Día 2. LaTeX: Primeros pasos. Estructura y creación de documentos. El estado mental correcto. Editor de LaTeX Texmaker. Estructura básica de un documento. Creando contenido. • Capítulos y secciones. Entornos. Fórmulas matemáticas. • Crear un documento básico. • Dudas o comentarios sobre el contenido del tema. Git: Trabajando con Ramas. Qué son las ramas y para qué sirven. Creación, fusión y trabajo con ramas. • Conflictos entre ramas, soluciones. Borrado de commits. Rebase. Editado de la historia.
Día 3. LaTeX: Avanzando en contenido y forma. Acentos y UTF-8. Caracteres especiales. Tipos de letra. Más tipos de letra. Cambiado el tamaño de la letra. Unidades de medida. Listas. Primeras tablas. Introducción a las cajas. Cambiando los márgenes de la página. Indentado y espacios entre párrafos. Tablas. Fórmulas matemáticas. • Discusión y debate: “Maldito sea el día en que me metí en esto”. Git: Trabajo remoto. Repositorios remotos. Creación, clonación y sincronización. Conflictos entre repositorios. Identificación, Claves SSH básicas. • Trabajo colaborativo. Esquemas de trabajo.
Día 4. LaTeX: Ampliación de entornos. Fórmulas matemáticas y símbolos especiales. Tablas. Tipos de documento: estilos. Partes de un documento: más entornos. Tipos de letras en fórmulas matemáticas. Símbolos encima de otros. Enfatizado. El uso de las llaves. Paquete amsfonts. Modo “display”. Símbolos especiales. Comandos propios. Más sobre tablas y cajas. • Inserción de gráficos. Ejercicio sobre imágenes, tablas y ecuaciones. Git: Introducción a GitHub. Cómo usar GitHub. Alta y uso básico. Github como red social. GitHub pages. Issues, forks, pull request. Otros repositorios.
Día 5. LaTeX: Bibliografía. Creación de bases de datos para BibTeX. Gestión de base de datos. Estilos en BibTeX. Inserción en un documento. Bibliografía sobre BibTeX. • Ejercicio sobre BibTeX. Git: GitHub avanzado. GitHub avanzado. Planificación del trabajo. Interacción y revisiones usando GitHub.
Evaluación La evaluación será remota y basada en un proyecto: Creación de un documento LaTeX mantenido en GitHub. El documento deberá incluir la mayoría de los conceptos de LaTeX incluidos en el curso.
Forma y plazo de inscripción
Profesorado
Duración, lugar y fecha
Plazas y perfil
Justificación académica Trabajar con una metodología de ciencia abierta no sólo permite cumplir una obligación ética de mantener a la sociedad informada de los desarrollos que se hacen con fondos públicos, también lleva una serie de buenas prácticas que resultan en flujos de trabajo más eficientes que permiten que el camino desde la idea a la publicación sea mucho más rápido. Al usar también una serie de herramientas que permiten publicar todo tipo de “artefactos”, desde código a gráficos pasando por comentarios a experimentos fallidos, crean una práctica de comunicación que se acerca más a la divulgación, pero que a la vez permite crear trabajos con revisión entre pares más fáciles de realizar y que, eventualmente cuando se publican, recibirán más atención y más citas al estar en abierto.
Este curso introduce la metodología, las prácticas habituales y los recursos usados en ciencia abierta, con el objetivo esencial de ayudar al estudiante a acercar la práctica a la sociedad y también mejorar sus propias prácticas de experimentación y de publicación de esos experimentos.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno:
El alumno será capaz de:
Día 1. Software libre y datos y conocimiento abierto. Hacia la ciencia abierta. Qué hace libre al software libre. Licencias de software libre. • Conocimiento abierto. Licencias creative commons y su uso en la universidad y biblioteca. Qué liberar y cómo hacerlo. • Datos abiertos: uso de los mismos, licencias, datos abiertos en la UGR.
Día 2. Git y Github, claves para el desarrollo en abierto. El estado mental correcto. Por qué usar git y GitHub. Flujos de trabajo básicos. Colaboración a través de repositorios de código.
Día 3. Más allá del trabajo científico: ciencia de bitácora abierta. Más allá del PDF, elaboración de publicaciones con procesamiento de datos y presentación gráfica incluida. Rmarkdown. Knitr. Jupyter notebooks.
Día 4. Ciencia reproducible: buenas prácticas en el procesamiento de datos científicos. Buenas prácticas en el procesamiento de datos: publicación en abierto de los mismos. Creación de entornos de procesamiento de datos y experimentales reproducibles.
Día 5. Publicación en abierto: posibilidades y retorno. Publicación de todo tipo de artefactos experimentales (datos, código). Publicación de datos específicos. Publicación de flujos de trabajo. Publicación de borradores. Diferentes webs y sus posibilidades y retorno. Revisión en abierto.
Evaluación La evaluación será remota y basada en un proyecto: publicación de un informe de resultados reales procedentes del trabajo científico en alguna web de publicación en abierto.
Forma y plazo de inscripción
IEEE junto con la Biblioteca Universitaria ha organizado la siguiente sesión formativa Virtual: ¿Cómo publicar artículos en IEEE Xplore?
Duración, Lugar y Fecha:
Esta sesión formativa es de interés para los estudiantes de doctorado del área de ciencias, tecnologías e ingenierías, ya que IEEE es uno de lo editores más importantes en el ámbito de la ingeniería informática y ciencias afines.
Profesorado Coordinador: José María Conde Porcuna (jmconde@ugr.es)
Lugar Sala de medios audiovisuales de la Facultad de Ciencias, excepto el 10 de octubre (que será en el aula A-20) y el 10 de noviembre (que será en A-10).
Es necesario llevar pórtatil, pc o mac
Carga docente
Plazas y perfil
Justificación académica
El curso pretende que los estudiantes de doctorado conozcan y apliquen los métodos estadísticos más utilizados en Biología. En las clases se utilizarán datos reales como ejemplos para una mejor comprensión. Los alumnos podrán aplicar los conocimientos adquiridos sobre los ficheros de datos que dispongan para la realización de sus Tesis doctorales. Los análisis que hagan con dichos ficheros serán supervisados inicialmente por el profesorado de la asignatura.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno sabrá utilizar análisis estadísticos fundamentales que permitan explicar la respuesta de variables de interés a diversos factores.
El alumno será capaz de diseñar e interpretar experimentos de campo y laboratorio para conocer los posibles factores y su efecto sobre variables de interés.
Programa, calendario y horario 6 de octubre (viernes), 9:00-12:00 (JM Conde). Presentación del curso. Estadística básica: Diseño experimental. Pseudoreplicación y pseudofactorialismo. Tipos de datos.
6 de octubre (viernes), 12:30-14:30 (M Abdelaziz). Estadística básica: Introducción a R. Correlaciones paramétricas y no paramétricas.
10 de octubre (martes), 9:00-11:00 (MM Rueda). Inferencia básica: Problema de una muestra. Problema de dos muestras independientes y apareadas. Contrastes paramétricos y no paramétricos para una y dos muestras.
10 de octubre (martes), 11:30-13:30 (F Torres). Modelos lineales generales: Regresión lineal simple: Ajuste e interpretación de resultados. Predicción. Calibración lineal. Contraste de linealidad para datos repetidos. Comprobación de asunciones.
20 de octubre (viernes), 9:00-11:00 (F Torres). Modelos lineales generales: Regresión lineal múltiple: Ajuste e interpretación de resultados. Restricciones lineales. Selección de regresores.
20 de octubre (viernes), 11:30-13:30 (MM Rueda). Modelos lineales generalizados: variables explicativas cuantitativas: Regresión logística binomial y multinomial. Selección de regresores. Regresión de Poisson.
25 de octubre (miércoles), 9:00-11:00 (AM Aguilera). Análisis de datos categóricos: Independencia y asociación en tablas bidimensionales.
25 de octubre (miércoles), 11:30-13:30 (AM Aguilera). Análisis de datos categóricos: Independencia condicional y asociación parcial. Metodología de Mantel-Hanzel.
3 de noviembre (viernes), 9:00-11:00 (J Lorite). Diseño de experimentos y análisis de la varianza (ANOVA): Diseños completamente aleatorizados. Diseños en bloques. Cuadrados latinos y grecolatinos. ANOVA paramétrico.
3 de noviembre (viernes), 11:30-13:30 (J Lorite). Diseño de experimentos y técnicas Anova asociadas: ANOVA de medidas repetidas. Diseños anidados.
10 de noviembre (viernes), 9:00-11:00 (M Abdelaziz). Contrastes múltiples no paramétricos: Muestras independientes: Análisis de Kruskal-Wallis. Muestras dependientes: Análisis de Friedman y Prueba de Cochran.
10 de noviembre (viernes), 11:30-13:30 (JM Conde). Modelos lineales: variables explicativas cuantitativas y cualitativas: ANCOVA. Modelos y selección de modelos: AIC y AICc.
16 de noviembre (jueves), 9:00-11:00 (R Rubio). Correlación y regresión de matrices de distancia: ¿Qué es una matriz de distancia? Análisis espacial: Análisis de Mantel simple.
16 de noviembre (jueves), 11:30-13:30 (R Rubio). Correlación y regresión de matrices de distancia: Análisis de mantel parcial. Regresión múltiple de matrices (MRM).
De manera no presencial, los alumnos irán trabajando con ficheros de datos de sus Tesis doctorales (si aún no dispusieran de ellos, se les entregarían ficheros de datos).
Semana del 27 de noviembre al 1 de diciembre: Supervisión del trabajo de los alumnos de forma personalizada (los alumnos serán repartidos entre los profesores según las afinidades previamente establecidas). Los horarios para la supervisión de notificarán a la finalización de las clases.
Evaluación Valoración final del trabajo individual a partir de una o varias bases de datos, considerando la estrategia seguida en el análisis de datos, la interpretación de resultados y la elaboración de conclusiones (100%).
Forma y plazo de inscripción
Forma de inscripción: Los alumnos deben mandar un email a la Escuela de Doctorado (actividadesdoctorado@ugr.es) con la palabra “Inscripción a curso Herramientas de búsqueda y gestión de información para el desarrollo de la Investigación ” en el asunto y con indicación del programa de doctorado al que pertenece también en el asunto.
Writing a research paper in English: strategies and techniques
Profesorado, duración, lugar y fecha
Dra. Pamela Faber Benítez, Catedrática Departamento de Traducción e Interpretación. Universidad de Granada. 40 horas (10h presenciales + 30 trabajo personal). Lugar: Aulario EIP (Antigua Facultad de Ciencias de la Salud); Aula de Informática nº 2. Fechas: 2, 4, 7, 9 y 11 de marzo, 8-10.00 h.
Plazas y perfil
30 plazas. Dirigido preferentemente a alumnos/as de segundo año de doctorado. Así mismo, para el buen aprovechamiento de los alumnos, deben tener un nivel razonable de inglés tanto hablado como escrito (al menos, B2).
Programa
1. Introduction. 1.1 English as a lingua franca in the scientific world 1.2 The need to publish 1.3 Types of paper
2. Organization. 2.1 Sections 2.2 Content 2.3 Format and Layout 2.4 Common errors
3. Language. 3.1 Syntax and sentence structure 3.2 Semantics and terminology 3.3 Style and punctuation 3.4 Common errors
4 Strategies 4.1 Making notes 4.2 Keeping track of references 4.3 Translation: problems and pitfalls 4.4 Revising 4.5 Avoiding plagiarism
Competencias
CA04 - Trabajar tanto en equipo como de manera autónoma en un contexto internacional o multidisciplinar. CA05 - Integrar conocimientos, enfrentarse a la complejidad y formular juicios con información limitada. CA06 - La crítica y defensa intelectual de soluciones. CB11 - Comprensión sistemática de un campo de estudio y dominio de las habilidades y métodos de investigación relacionados con dicho campo CB14 - Capacidad de realizar un análisis crítico y de evaluación y síntesis de ideas nuevas y complejas. CB15 - Capacidad de comunicación con la comunidad académica y científica y con la sociedad en general acerca de sus ámbitos de conocimiento en los modos e idiomas de uso habitual en su comunidad científica internacional.
Forma de inscripción
Los alumnos deben mandar un email a la Escuela de Doctorado (epdoctorado@ugr.es) con la palabra “Inscripción a cursos” en el asunto y con indicación de la escuela doctoral a la que pertenece también en el asunto. Adjuntar certificado de nivel de inglés.
Plazo de inscripción: 18-29 de enero de 2016. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Profesorado
José Vicente Pérez Peña (UGR)
Duración, lugar y fecha
12 horas presenciales (+6 horas no presenciales). 5, 6, 12, 13, 19, 20 de Mayo. Sesiones Jueves y Viernes de 15:30 a 17:30 h. Aula Juan Campos (1ª planta del Hall de la Facultad de Ciencias). Se necesita portatil propio (Mac o PC).
Plazas y perfil
15 plazas. Dirigido preferentemente a alumnos/as de segundo año de doctorado.
Justificación académica
Python es uno de los mejores lenguajes para su uso científico y técnico. Tiene algunas características que lo hacen realmente interesante en este ámbito, como son; es interpretado, de alto nivel, muy fácil de aprender, fácilmente extensible y cuenta con una librería estándar con mucha funcionalidad. Este lenguaje está siendo actualmente utilizado por instituciones científicas como la NASA, JPL, y otras como Google, DreamWorks, Disney, etc. En el ámbito científico y técnico, python se está abriendo paso de forma firme gracias a librerías específicas como numpy, matplotlib y scipy. El uso de estas librerías ofrece a los usuarios de Python una infinidad de recursos matemáticos y científicos para la resolución de problemas complejos y la creación de gráficos de muy alta calidad.
Algunas de las operaciones básicas utilizadas en cálculo y programación científico-técnica incluyen matrices, integrales, ecuaciones diferenciales, estadística, etc. Python en su paquete básico no cuenta por defecto con funciones para realizar este tipo de cálculos directamente. Así mismo, los tipos básicos de variables de Python no están optimizados para el manejo de gran cantidad de datos. NumPy y SciPy son dos librerías muy potentes que cuentan con toda esta funcionalidad de la que carece el paquete básico de Python, y por tanto que posibilitan la utilización de este lenguaje para fines científicos y técnicos.
La librería de numpy se especializa en el procesado numérico utilizando matrices multidimensionales, y permite un cálculo matricial directo al igual que programas especializados como matlab. Así mismo cuenta con métodos y funciones para la creación, manejo, redimensionado, etc., de matrices, lo cual reduce considerablemente el esfuerzo de programación requerido en otros lenguajes.
La librería de matplotlib es una librería gráfica que toma todas las ventajas de numpy. Permite la creación de infinidad de gráficos de alta calidad (ráster y vectorial), así como la modificación de todas sus características. Matplotlib no solo se integra perfectamente con numpy, sino que permite el lenguaje de marcado de LaTeX, pudiendo crear gráficos de muy alta calidad para publicaciones científicas e informes técnicos.
SciPy va un paso más allá, y utiliza toda la funcionalidad de numpy para realizar cálculos matemáticos avanzados como la integración, diferenciación, algebra lineal, no lineal, etc. También cuenta con multitud de funciones de alto nivel para el tratamiento estadístico de los datos.
Una lista complete de todas las funciones de numpy, matplotlib y scipy ocuparía cientos de páginas, por lo que en este curso se tratarán las funciones más utilizadas. Se introducirá al alumno en las rutinas de trabajo con estas librerías y a la resolución de los problemas más comunes en ciencia e ingeniería. Con este curso también se pretende que el alumno tenga los conocimientos necesarios para entender la documentación de estas librerías con el fin de capacitarlo para poder utilizar funcionalidad específica de las mismas no tratada en este curso.
Objetivos educativos, profesionales y competencias generales adquiridas
El alumno sabrá: • Manejo de matrices multidimensionales con numpy • Funciones básicas para la creación y utilización de matrices de numpy • Lectura-escritura en disco de datos • Creación y representación de funciones matemáticas • Creación de distintos gráficos con matplotlib • Modificación de símbolos y leyendas • Funciones mátematicas de alto nivel y estadística con scipy
El alumno será capaz de: • Crear y modificar gráficos • Integrar LaTeX directamente en un gráfico • Representar funciones y resolver ecuaciones matemáticas • Entender la documentación de las librerías de Python • Realizar cálculos matemáticos de alto nivel y resolución de problemas complejos
Programa formativo
Tema 1. Manejo de datos con numpy (4h) • Constantes y funciones de numpy • Arrays de numpy • Métodos para la creación de arrays • Operaciones con arrays • Indexado y slicing en arrays • Leer y guardar arrays en archivos de texto
Tema 2. Representación gráfica con matplotlib (4h) • Representación básica de funciones • Representación de varias curvas • Representación de nube de puntos • Representación de histogramas y boxplots • Definiendo colores y símbolos • Añadiendo leyendas y etiquetas • Control de ejes • Representación de múltiples figuras
Tema 3. Análisis numérico con scipy (2h) • Integración numérica • Ecuaciones diferencias ordinarias • Ecuaciones algebraicas no lineales • Ajuste e interpolación
Tema 4. Estadística con scipy (2h) • Estadística básica • Análisis espacial y clúster • Procesado de señales e imágenes
Forma de inscripción
Los alumnos deben mandar un email a la Escuela de Doctorado (epdoctorado@ugr.es) con la palabra “Inscripción a cursos” en el asunto y con indicación de la escuela doctoral a la que pertenece también en el asunto.
Plazo de inscripción: 7-18 de marzo de 2016. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
Profesorado, duración, lugar y fecha
Vicerrectorado de Investigación y Transferencia. 10 horas. Sala de conferencias del edificio CTT, Gran Vía 48, sexta planta. Del 4 a 6 de abril, de 10 a 13 h.
Plazas y perfil 30 plazas. Estudiantes de doctorado de tercer año y egresados recientes (dos años).
Programa
10.00-11.30 h.
¿Qué es un proyecto?. Fases. Definición de objetivos. Planificación. Control. Justificación. Principales convocatorias de financiación de proyectos para jóvenes doctores. Plan Estatal y Horizonte 2020. Convocatorias de especialización posdoctoral en Plan Estatal. Junta de Andalucía y Horizonte 2020.
Por: Miguel Angel Guardia López y José Antonio Carrillo Miñán.
12-13 h.
Aspectos esenciales para la presentación de un proyecto de éxito (1). La evaluación del curriculum. 10 reglas de oro para la publicación de artículos científicos en revistas de impacto.
Por: Daniel Torres Salinas.
10.00-13.00 h.
Aspectos esenciales para la presentación de un proyecto de éxito (2). Los aspectos éticos. Los códigos de buenas prácticas en investigación y doctorado. La solicitud del proyecto. Principales apartados. La elaboración del presupuesto. La evaluación del proyecto. Criterios de evaluación. ¿Qué critican los evaluadores en una solicitud de proyecto? Casos prácticos de informes de evaluación de proyectos del Plan Nacional. El equipo de investigación. Integrarse en un equipo de investigación de forma activa. Motivación y liderazgo (“equipos emocionalmente inteligentes”).
Por: Miguel Angel Guardia López, María del Carmen Aguilar Luzón y Marian Gómez Letrán.
10-13 h.
Caso práctico de discusión y presentación de un proyecto.
Por: Leandro di Stasi (Talent Hub, jóven investigador con proyectos activos y anteriormente postdoc en EEUU; Departamento de Psicología Experimental). Forma de inscripción
Los alumnos deben mandar un email a la Escuela de Doctorado (epdoctorado@ugr.es) con la palabra “Inscripción a cursos” en el asunto y con indicación de la escuela doctoral a la que pertenece también en el asunto.
Plazo de inscripción: Del 11 al 20 de Enero. En caso de que haya más solicitudes que plazas se seleccionarán los alumnos/as según su adecuación al perfil del curso y el orden de inscripción.
igor.vlahovic@gmail.com
http://rgn.hr/~ivlahovi/ivlahovic_eng.htm
En ambos casos en el Salón de Grados de la Facultad de Ciencias
Lectures on the practical aspects of the preparation and writing of scientific papers, dealing with reviewers and editors, keeping motivation for writing, and keeping a good relationship and fruitful cooperation with PhD advisors.
Scientific publishing is focused on distribution of new results, enabling their visibility to wider scientific community, but also helping researchers to obtain their academic promotion and fundings of future projects. Constant pressure is well-described by a common expression 'publish or perish', and in order to survive every scientist should learn and master all phases of the process. That is today necessary because even the most original scientific results can be seriously and irreversibly neglected if not presented properly.
We will go through the entire process of scientific publication from different perspectives, not only from the author's corner but also from the editor's and reviewer's side, to see common mistakes more clearly and discuss how to avoid them. The most important questions addressed will include: Why, where and how to publish your scientific results? What is responsible conduct of research and how to avoid common mistakes, including plagiarism and autoplagiarism? How to cooperate and publish with your advisor? What questions to address while preparing a concept of your paper? What is the structure of the scientific paper and how to present your data? How to fight procrastination and finally finish the paper? How and when to choose a journal and how to prepare the final version of your manuscript for submission? How to successfully communicate with editors and reviewers? What to do after your paper is published and what to do if it is finally rejected?