April 29, 2024

PDFS

C'est en forgeant qu'on devient forgeron

IBM dévoile Telum pour lutter contre la fraude financière en temps réel

3 min read

IBM a dévoilé un nouveau processeur, nommé Telum, qui, selon lui, accélérera le traitement de l’intelligence artificielle (IA) sur ses mainframes de la série Z. Développé au cours des trois dernières années par Centre de recherche sur le matériel d’IA d’IBM, la puce contient huit cœurs de processeur avec un pipeline d’instructions super scalaire profond dans le désordre, fonctionnant avec une fréquence d’horloge supérieure à 5 GHz. IBM a déclaré que Telum est optimisé pour les exigences des charges de travail hétérogènes de classe entreprise.

Telum utilise une infrastructure de cache et d’interconnexion de puces repensée, qui fournit désormais 32 Mo de cache par cœur et peut évoluer jusqu’à 32 puces Telum. La conception du module à double puce contient 22 milliards de transistors et 19 miles de fil sur 17 couches métalliques.

En raison des exigences de latence, la détection de fraude complexe ne peut souvent pas être effectuée en temps réel, ce qui signifie qu’un acteur malveillant pourrait déjà avoir acheté avec succès des biens avec une carte de crédit volée avant que le détaillant ne sache qu’une fraude a eu lieu. Telum est le premier processeur d’IBM qui contient une accélération sur puce pour l’inférence d’IA pendant qu’une transaction est en cours.

Christian Jacobi, architecte en chef d’IBM pour les processeurs Z, a déclaré qu’IBM souhaitait fournir ses clients banque, finance et assurance avec la possibilité d’exécuter l’IA en temps réel à un volume de transactions de 10 000 à 50 000 transactions par seconde. “Il est conçu pour l’inférence en transaction et conçu à l’aide d’un noyau d’IA du centre de recherche IBM AI”, a-t-il déclaré. « Nous avons travaillé avec l’équipe Z pour la rendre accessible afin de traiter les transactions élevées. »

L’accélération est fournie via une nouvelle instruction, qui est programmée sous le cœur du processeur Z, a déclaré Jacobi. “Il n’y a pas d’intervention du système d’exploitation.”

Contrairement à l’accélération de l’IA basée sur GPU, a-t-il déclaré, “il n’est pas nécessaire d’envoyer des données sur un bus PCI, ce qui augmente la latence”.

Selon Jacobi, la nouvelle puce accélératrice d’IA est optimisée pour fournir un accès direct à la mémoire où sont stockées les données. Lorsqu’il n’est pas utilisé pour le traitement de l’IA, Telum peut passer à des fonctions de traitement normales, a-t-il déclaré.

IBM a déclaré qu’au niveau des sockets, les nouvelles puces offriront une augmentation de 40% des performances par rapport au système Z15, et Jacobi a déclaré qu’IBM prévoyait de développer davantage l’optimisation de la pile logicielle.

« Il y a des couches de code impliquées dans la fourniture de l’ensemble de la solution », a-t-il déclaré. « Cela commence par le silicium et le micrologiciel qui s’exécutent sur les cœurs du processeur et l’accélérateur AI. Ce micrologiciel implémente diverses opérations, comme la « multiplication matricielle ». En plus de cela, le système d’exploitation et le logiciel de cadre d’IA s’exécutent, exploitant la nouvelle instruction Neural Network Processing Assist qui est la vue au niveau logiciel sur l’accélérateur sur puce.

“Avec cette approche, les clients peuvent créer des modèles d’IA n’importe où – sur IBM Z, IBM Power ou d’autres systèmes de leur choix – puis exporter ces modèles dans l’Open Neural Network Exchange [ONNX] format. Ensuite, le compilateur IBM Deep Learning compilera et optimisera les modèles ONNX pour le déploiement sur IBM Z. Les modèles compilés fonctionneront ensuite sur Telum, exploitant directement l’accélérateur d’IA de Telum via cette pile matérielle/micrologiciel/logiciel.

Leave a Reply

Your email address will not be published. Required fields are marked *

Copyright © All rights reserved. | Newsphere by AF themes.