Nuestros servicios

El Centro de Computación de Alto Rendimiento CCAR es una Unidad de Apoyo a la Investigación de la UNED. Su misión es proveer de la infraestructura y los recursos necesarios para investigadores que requieran herramientas de computación de alto rendimiento (HPC). Su uso está destinado exclusivamente a labores de investigación y explotación de recursos computacionales en el ámbito de las Ciencias. Además de horas de computación, el CCAR ofrece servicios de asesoría, adquisición de equipos e infraestructuras, soporte y mantenimiento de hardware y software de altas prestaciones.

HPC

Servicio de computación científica heterogéneo en cualquiera de nuestros clústeres de investigación.

Software, normativa y manuales

Software instalado, normativa del CCAR, manuales de usuario y guías.

Proyectos y resultados

Proyectos de investigación participantes, acuerdos de servicio y resultados obtenidos.

image
image
image
image

¿Tienes algún proyecto o necesidad de computación?

Habla con nosotros y te orientaremos para conseguirlo

image
image
image
image
image
image
image
image
image
Talleres de formación para estudiantes (2025)

Los grupos de innovación docente en Física y para la enseñanza a distancia de la Ingeniería Química, en colaboración con el CCAR, y con el patrocinio del Plan de Apoyo a la Innovación Docente de la UNED y del Máster Universitario en Física Avanzada, ofertarán durante el curso 2024/2025 la cuarta edición de talleres destinados a la obtención de competencias transversales en computación científica para estudiantes de la Facultad de Ciencias. Dirigido principalmente a estudiantes de último curso de grado y máster, y en particular a los de las siguientes asignaturas:

Grado en Física

  • Técnicas experimentales I
  • Técnicas experimentales II
  • Técnicas experimentales IV
  • Física computacional II
  • Física cuántica I
  • Trabajo fin de grado

Grado en Química

  • Proyectos en ingeniería química
  • Trabajo fin de grado

Máster en Física Avanzada/Ciencia y Tecnología Química

  • Fenómenos de transporte: técnicas de simulación en fluidos
  • Métodos cuánticos en sistemas poliatómicos
  • Introducción a la ciencia y el análisis de datos
  • Teoría de la información
  • Teoría del funcional de la densidad
  • Métodos numéricos avanzados
  • Trabajo fin de máster

Los talleres, con un marcado carácter práctico, harán una introducción de las principales herramientas de software que se se utilizan en sistemas de computación distribuida. También se utilizarán programas de ámbito científico para el tratamiento y análisis de datos. Los talleres previstos para el curso 2024/2025 son los siguientes:

  • Introducción a los sistemas de supercomputación
  • Uso, recetas y trucos de Linux
  • Matlab
  • Aprendizaje automático con Python
  • Julia
  • Paralelización con MPI
  • Gaussian
  • Simulación cuántica con Qibo/Qiskit
  • Dinámica de fluidos computacional: OpenFOAM
  • LAMMPS
  • Aspen Hysys

Con esta iniciativa, pretendemos que los estudiantes puedan adquirir los conocimientos necesarios para afrontar, con garantías de éxito, los retos que puedan plantearse en computación científica. Se trata de una formación complementaria para estudiantes que expande las posibilidades de actuación en numerosas asignaturas, lo que supone un valor añadido para las titulaciones en las que se enmarca.

Tanto en los cursos virtuales como en la web del CCAR daremos información sobre las fechas y los contenidos de los talleres.

¡Plazas limitadas!

FORMULARIO DE INSCRIPCIÓN

Paralelización con Gaussian

El CCAR tiene habilitado el software Gaussian para aquellos usuarios que cuenten con una licencia de uso. Para utilizarlo, basta cargar el módulo correspondiente:

$ module load gaussian/g16_2021

Gaussian soporta dos modos de paralelización. En ALICE se encuentra habilitado el soporte multinúcleo, que permite la ejecución en paralelo dentro de un mismo nodo de cálculo. Para ello es necesario, además de hacer la reserva de hilos desde el archivo .job (con #$ -pe smp N), indicarle a Gaussian que debe utilizar los hilos disponibles con alguna de las siguientes directivas:

  • En el archivo de entrada de Gaussian (.gjf), añadiendo la instrucción %CPU=1-N
  • Como parámetro al llamar al ejecutable, con g16 -c="1-N" ...
  • Definiendo la variable de entorno GAUSS_CDEF, añadiendo al archivo .job antes de la llamada a Gaussian export GAUSS_CDEF="1-N"

El uso de -p o $NProcShared está desaconsejado, ya que son instrucciones obsoletas que es posible que desaparezcan en futuras versiones del software. El sitio web de Gaussian dispone de más información sobre todas las opciones de ejecución disponibles.

Confiamos en que estas indicaciones sean útiles para optimizar los cálculos. Recordamos que, para no infrautilizar los recursos disponibles, es necesario que la reserva de hilos de un .job coincida con la carga de trabajo real del software.

Paralelización con R/4.3.1

El clúster ALICE tiene instalada la versión 4.3.1 de R, a disposición de todos sus usuarios. Son varios los paquetes instalados en la suite de R, disponibles utilizando el comando:

> library()

La versión instalada de R tiene soporte nativo para paralelización, tanto en el uso de álgebra lineal a través de BLAS (que utiliza las librerías MKL de Intel Oneapi) como OpenMP. El uso de rutinas de paralelización está ampliamente documentada en la documentacion de R: CRAN Task View: High-Performance and Parallel Computing with R.

Para hacer un uso eficiente de la paralelización de R, es necesario tomar medidas adicionales que no interfieran con el resto de usuarios. Los siguientes códigos de buenas prácticas permiten hacer un buen uso de R en paralelo:

  • Evitar el uso de la librería ‘parallel’, y usar en su lugar la librería ‘parallelly‘, que tiene un soporte más avanzado en las capacidades de paralelización.
  • Sustituir el uso de la función detectCores() por availableCores(), que toma el número de hilos disponibles a partir de la información del job que proporciona el gestor de colas.
  • Usar la librería RhpcBLASctl para especificar el número de hilos de computación, tanto para OpenMP como para BLAS. Esto puede conseguirse con las siguientes instrucciones:
 library('RhpcBLASctl')
 blas_set_num_threads(NCORES)
 omp_set_num_threads(NCORES)

donde NCORES es el número de hilos reservados en el trabajo.

Confiamos en que estas medidas sean útiles para mejorar la eficiencia de los cálculos en R. En cualquiera de los casos, siempre es recomendable hacer un pequeño benchmark para comprobar la combinación más eficiente de hilos que respete, en todo caso, el máximo de la reserva realizada.

image
image
image
image
image
image
image
image