Centro de datos
Almacenamiento
HPE

Hacia una nueva tecnología de acceso de datos

El consorcio Gen-Z hace públicas sus primeras especificaciones esenciales, con las que quiere renovar la arquitectura de interconexiones.

red datos

Puede parecer que el actual estado de la tecnología facilita un escenario de competencia. Sin embargo, el propio proceso de evolución tecnológica y sus implicaciones en múltiples aspectos globales, con influencias que van desde la forma de trabajar a la propia estructura social, posibilita que se formen alianzas de compañías, en forma de plataformas open source o de consorcios, que buscan un avance global o la constitución de nuevos estándares, dentro de los cuales desarrollar, ahí sí, su propia oferta.

En esta última línea trabaja el Gen-Z Consortium. Formado por una docena de compañías líderes de la industria tecnológica e informática, la alianza busca un nuevo estándar de la industria para conexión de sistemas abiertos, con los que dar acceso de memoria a datos y dispositivos. Ahora, Gen-Z acaba de anunciar la publicación de la versión 1.0 de sus especificaciones centrales, disponibles a través de su web. Este es el documento base a través del que los proveedores de silicio y los desarrolladores de IP comiencen a trabajar en el desarrollo de soluciones compatibles con el estándar Gen-Z. 

Esta Especificación Básica 1.0 plantea un nuevo paradigma de arquitectura de acceso a datos para los diseñadores y fabricantes de microchips, como respuesta a los avances en el desarrollo de almacenamiento, sistemas y procesadores; la aparición de nuevos modelos, como las infraestructuras híbridas, definidas por software o basadas en la memoria; y su adaptación a las herramientas que están permeando el sector, como la inteligencia artificial. 

Entre el grupo inicial de 12 empresas que formaron el consorcio en agosto de 2016 está HPE, para la que esta nueva arquitectura es un elemento clave en sus líneas de trabajo de HPC e informática orientada a memoria. Alain Andreoli, vicepresidente y General Manager de la division de TI híbrida de la compañía, pone en valor el papel del consorcio al destacar que, ante el panorama actual de una mayor demanda de rendimiento, se necesita de “un conjunto de bloques de construcción nuevos y abiertos que permitirán un nivel de innovación no disponible para un conjunto cerrado de estándares patentados”.

Sobre la presentación de la primera versión de especificaciones para el estándar de conexión, Andreoli explica que es importante porque permitirá que cualquier componente (procesador, memoria, acelerador o red) se relacione con otro como “si estuviera comunicándose con su propia memoria local, usando comandos simples”, en un modelo que denomina “protocolo semántico de memoria”. Esto simplifica los diseños de hardware y software, con la consecuente reducción de coste, y permitiendo cualquier combinación de componentes en busca del mejor rendimiento y eficiencia.

Estos son parte de los objetivos que se plantea el grupo con su nuevo estándar, que también incluye el mejor aprovechamiento del ancho de banda y la baja latencia, maximizar la eficiencia del software y la seguridad, y optimizar el uso de energía.



Otros contenidos