Teradata und NVIDIA haben auf der „Possible“-Konferenz in Los Angeles eine wegweisende Partnerschaft angekündigt, die die Teradata Vantage-Plattform auf ein neues Level hebt. Die Integration von NVIDIA NeMo- und NIM-Micro Services beschleunigt KI-Workloads, was insbesondere großen, globalen Unternehmen zugutekommt. Diese Neuerung ermöglicht die Nutzung einer NVIDIA-beschleunigten Computing-Infrastruktur und unterstützt die Implementierung kleiner Sprachmodelle (SLMs) und offener LLMs über die neu eingeführte „Bring-your-own-LLM“-Funktion.
Die neue Technologie wird im November zunächst auf der AWS-Cloud verfügbar sein. Unternehmen können von den Vorteilen der NVIDIA-KI-beschleunigten Plattform profitieren, die unter anderem die LLM-Inferenzierung und Modell-Feinabstimmung umfasst. Die Erweiterungen der KI-Funktionen von Teradata versprechen eine leistungsstarke Full-Stack-Plattform, die Sicherheit und Unterstützung bietet. Inferenzfunktionen werden im 4. Quartal 2024 verfügbar sein, während die Feineinstellungen bis zum ersten Halbjahr 2025 folgen werden.