Nuestros servicios

El Centro de Computación de Alto Rendimiento CCAR es una Unidad de Apoyo a la Investigación de la UNED. Su misión es proveer de la infraestructura y los recursos necesarios para investigadores que requieran herramientas de computación de alto rendimiento (HPC). Su uso está destinado exclusivamente a labores de investigación y explotación de recursos computacionales en el ámbito de las Ciencias. Además de horas de computación, el CCAR ofrece servicios de asesoría, adquisición de equipos e infraestructuras, soporte y mantenimiento de hardware y software de altas prestaciones.

HPC

Servicio de computación científica heterogéneo en cualquiera de nuestros clústeres de investigación.

Software, normativa y manuales

Software instalado, normativa del CCAR, manuales de usuario y guías.

Proyectos y resultados

Proyectos de investigación participantes, acuerdos de servicio y resultados obtenidos.

image
image
image
image

¿Tienes algún proyecto o necesidad de computación?

Habla con nosotros y te orientaremos para conseguirlo

image
image
image
image
image
image
image
image
image
Entornos de python

Casper cuenta con un espacio de almacenamiento compartido para los usuarios (el directorio $home) que vive en servidores externos de almacenamiento en red accesibles tanto desde el front-end como desde los nodos de cálculo. El acceso se hace mediante una red dedicada de 10 GbE, que garantiza una alta velocidad pese a la concurrencia de usuarios conectados. Para evitar cuellos de botella, es recomendable hacer un uso razonable de la información del $home, evitando grandes cargas de lectura y escrita desde la red de datos.

Python cuenta con un sistema de instalación de librería muy útil, basado en pip, que permite la instalación de cualquier librería sin más que usar el comando:

$ pip install LIBRERÍA

Al hacer esto, la librería se instala en el directorio $home/.local/lib/python, lo que conlleva una carga de lectura y escritura cada vez que se accede a esa ruta desde los nodos de cálculo. Cuando se lanzan múltiples trabajos en paralelo, se produce una petición masiva a la red de datos, que en casos de librerías pesadas puede sobrecargar la conectividad. Por ese motivo, se establecen los siguientes códigos de buenas prácticas:

Librerías ligeras

Para librerías ligeras y de uso específico o puntual (por ejemplo, sisl), es posible instalar directamente en el $home la librería que se requiera. Para ello, es recomendable abrir una sesión interactiva en un nodo, cargar el módulo de python que corresponda, e instalar la librería con pip. Por ejemplo:

[username@casper] $ qsub -I -q alpha -l walltime=01:00:00
[username@c-0-0] $ module load python-gnu12
[username@c-0-0] $ export PYTHONCACHEPREFIX="/state/partition1/$USER/cache/pycache"
[username@c-0-0] $ export PIP_CACHE_DIR="/state/partition1/$USER/cache/pip-cache"
[username@c-0-0] $ pip3 install --user sisl

Estos comandos instalarán la librería en el directorio $home/.local/lib/pythonX.YY, de modo que queda accesible a todos los nodos usando la red de datos. Una vez instalada la librería, desde el job puede utilizarse añadiendo las instrucciones:

module load python-gnu12
export PYTHONCACHEPREFIX="/state/partition1/$USER/cache/pycache" 
export PIP_CACHE_DIR="/state/partition1/$USER/cache/pip-cache"
python3 -c "import sisl; print('sisl OK')"
python3 script.py

Librerías pesadas

El procedimiento anterior es útil para librerías que funcionan de forma independiente, sin cargar muchas dependencias y que no constituyan un stack completo como Numpy, Scipy, Sci-kit learn, etc. Si se requiere el uso de librerías pesadas o de stacks de desarrollo (o si se necesita una versión específica de python) desaconsejamos la creación de entornos virtuales específicos o la instalación con pip, ya que suponen una sobrecarga considerable de los procesos de lectura y escritura.

Para estos casos es posible solicitar a los administradores la creación de módulos específicos que se instalen en local en los nodos de trabajo, evitando la sobrecarga de la red.

Talleres de formación para estudiantes (2026)

Los grupos de innovación docente en Física y para la enseñanza a distancia de la Ingeniería Química, en colaboración con el CCAR, y con el patrocinio del Plan de Apoyo a la Innovación Docente de la UNED y del Máster Universitario en Física Avanzada, ofertarán durante el curso 2025/2026 la quinta edición de talleres destinados a la obtención de competencias transversales en computación científica para estudiantes de la Facultad de Ciencias. Dirigido principalmente a estudiantes de último curso de grado y máster, y en particular a los de las siguientes asignaturas:

    Grado en Física
  • Técnicas Experimentales I, II y IV
  • Física Computacional II
  • Física Cuántica I
  • Trabajo Fin de Grado
    Grado en Química
  • Proyectos en Ingeniería Química
  • Trabajo Fin de Grado
    Máster en Física Avanzada
  • Fenómenos de Transporte
  • Métodos Cuánticos en Sistemas Poliatómicos
  • Introducción a la Ciencia y al Análisis de Datos
  • Teoría de la Información
  • Teoría del Funcional de la Densidad
  • Métodos Numéricos Avanzados
  • Procesamiento de Imagen Digital
  • Trabajo Fin de Máster
    Máster en Ciencia y Tecnología Química
  • Métodos Cuánticos en Sistemas Poliatómicos
  • Trabajo Fin de Máster

Los talleres, con un marcado carácter práctico, harán una introducción de las principales herramientas de software que se se utilizan en sistemas de computación distribuida. También se utilizarán programas de ámbito científico para el tratamiento y análisis de datos. Los talleres previstos para el curso 2025/2026 son los siguientes:

  • Introducción a los sistemas de supercomputación
  • Uso, recetas y trucos de Linux
  • Matlab
  • Python: Jupyter y Numpy
  • Simulación en fluidos
  • Python: PyTorch
  • Gaussian
  • Random-Phase
  • OpenFOAM
  • Aspen HYSYS
  • LAMMPS
  • Python: Scikit-Learn
  • Basilisk
  • Tratamiento de imagen digital

Con esta iniciativa, pretendemos que los estudiantes puedan adquirir los conocimientos necesarios para afrontar, con garantías de éxito, los retos que puedan plantearse en computación científica. Se trata de una formación complementaria para estudiantes que expande las posibilidades de actuación en numerosas asignaturas, lo que supone un valor añadido para las titulaciones en las que se enmarca.

Tanto en los cursos virtuales como en la web del CCAR daremos información sobre las fechas y los contenidos de los talleres.

¡Plazas limitadas!

FORMULARIO DE INSCRIPCIÓN

Clúster Casper disponible

Tras meses de trabajo, hemos desplegado completamente el nuevo clúster Casper, que sustituye a Alice. Este nuevo clúster incorpora mejoras significativas tanto de hardware como de software. Por un lado, hemos actualizado el nodo de login (front-end) a un nuevo servidor de altas prestaciones con procesadores de última generación, sustituyendo el anterior que databa de 2008. Todo el sistema de almacenamiento se ha reconstruido con cuatro servidores dedicados (dos de metadatos y dos de almacenamiento) basados en BeeGFS, sobre una red 10 GbE que sustituye a la anterior red de 1 Gb. Se han instalado también dos nuevas redes de comunicación entre nodos para permitir el uso tanto diario como de administración en redes independientes. Hemos actualizado también el hardware de todos los nodos para homogeneizar la infraestructura, incorporando discos NVMe de alta velocidad para el sistema operativo, un sistema de doble scratch SSD y HDD para trabajos con baja o alta demanda de escritura, y al menos 128 GB de RAM en todos los nodos.

En el apartado de software, hemos sustituido toda la infraestructura de Rocks Cluster (basada en Centos 7.4, que databa de 2017) por Rocky Linux, que cuenta con un ciclo de vida hasta 2029. Se ha reestructurado el sistema de gestión del clúster por Warewulf y se ha sustituido el gestor de colas por OpenPBS, integrado todo en la suite OpenHPC. Se han instalado también versiones estables actualizadas tanto de compiladores (libres y propietarios) como del software de investigación disponible.

Los nodos de cálculos existentes en Alice se han migrado satisfactoriamente a Casper, manteniendo las colas de trabajo alpha, beta, gamma, epsilon y dseta. A nivel de administración, la numeración de los nodos se ha modificado para facilitar la identificación nodo-cola y permitir futuras ampliaciones con comodidad.

Las pruebas de rendimiento muestran mejoras de hasta un 40% respecto de Alice, por lo que confiamos en que estas actualizaciones sean de utilidad para todos los investigadores del CCAR.

image
image
image
image
image
image
image
image