For besøgende på Electronica 2024

Book din tid nu!

Alt, hvad det kræver, er et par klik for at reservere din plads og få kabinet billet

Hall C5 Booth 220

Advance -registrering

For besøgende på Electronica 2024
Du tilmelder dig alle! Tak fordi du lavede en aftale!
Vi sender dig båsen billetter via e -mail, når vi har verificeret din reservation.
Hjem > Nyheder > Amazon øger bestræbelserne på at skabe tilpassede AI -chips, hvilket reducerer afhængigheden af ​​Nvidia
RFQs/BESTILLING (0)
Dansk
Dansk

Amazon øger bestræbelserne på at skabe tilpassede AI -chips, hvilket reducerer afhængigheden af ​​Nvidia


Amazon forbereder sig på at lancere sin seneste kunstige intelligens (AI) -chip, da det store tech -konglomerat søger at høste afkast fra sine milliarder af dollars i halvlederinvesteringer og reducere sin afhængighed af markedsleder Nvidia.

Ledere i Amazons cloud computing -afdeling investerer meget i tilpassede chips i håb om at forbedre effektiviteten af ​​dets snesevis af datacentre og reducerer i sidste ende omkostningerne for sig selv og Amazon AWS -kunder.

Dette arbejde ledes af Annapurna Labs, en chipstart med base i Austin, som Amazon erhvervede for $ 350 millioner i begyndelsen af ​​2015. Annapurnas seneste resultater forventes at blive vist i december, hvor Amazon vil annoncere den udbredte tilgængelighed af "Trainium 2", somer en del af en AI -chip -serie designet til at træne de største modeller.

Trainium 2 gennemgår allerede test af Anthropic (Openais konkurrent, der har modtaget 4 milliarder dollars til støtte fra Amazon) samt Vnet, Deutsche Telekom, Ricoh Japan og Stockmark.

Amazon AWS og Annapurna sigter mod at konkurrere med Nvidia, som er blevet et af verdens mest værdifulde virksomheder på grund af dens dominerende position på AI -chipmarkedet.

Vi håber at være det bedste sted at køre NVIDIA -chips, "sagde Dave Brown, vicepræsident for computing og netværkstjenester hos Amazon AWS. Men på samme tid mener vi, at det er gavnligt at vedtage alternative løsninger," sagde Amazon og sagde, at det erAndre professionelle AI -chip "Inferentia" har reduceret driftsomkostningerne med 40% og kan bruges til responsive generative AI -modeller.

Amazon forventer nu kapitaludgifter på cirka 75 milliarder dollars i 2024, hvor flertallet går mod teknologiinfrastruktur.Under selskabets seneste indtjeningskonferenceopkald sagde administrerende direktør Andy Jassy, ​​at han forventer, at virksomheden har flere udgifter i 2025.

Dette er en stigning fra hele årets udgifter på 48,4 milliarder amerikanske dollars i 2023. De største skyudbydere, inklusive Microsoft og Google, investerer meget i kunstig intelligens, og denne tendens viser lidt tegn på svækkelse.

Amazon, Microsoft og Meta er alle store kunder i Nvidia, men de designer også deres egne datacenterchips til at lægge grundlaget for AI -vækstbølgen, de forventer.

Daniel Newman fra Futurum Group sagde: "Hver stor skyudbyder skifter inderligt mod mere lodrethed, og om muligt bevæger sig mod en homogen og integreret 'chip -teknologi' stak

Newman påpegede, at "Fra Openai til Apple søger alle at bygge deres egne chips", fordi de søger "lavere produktionsomkostninger, højere fortjenstmargener, højere tilgængelighed og mere kontrol".

Efter at have begyndt at bygge "Nitro" -sikkerhedschippen for AWS, har Annapurna udviklet flere generationer af Graviton, en ARM-baseret centralbehandlingsenhed (CPU), der giver et alternativ med lav effekt til traditionelle server mainframes leveret af Intel eller AMD.

TechInsights -analytiker G Dan Hutcheson sagde: 'En stor fordel ved AWS er, at deres chips kan bruge mindre strøm, og deres datacentre kan være mere effektive,' derved reducere omkostningerne.Han sagde, at hvis NVIDIAs Graphics Processing Unit (GPU) er et kraftfuldt generelt værktøj (til biler som stationsvogne), kan Amazon optimere sine chips til specifikke opgaver og tjenester (såsom kompakte eller hatchback-biler).

Indtil videre har AWS og Annapurna næppe svækket Nvidias dominerende position i AI -infrastruktur.

NVIDIAs AI -datacentre -chip -salgsindtægter nåede 26,3 milliarder dollars i andet kvartal af regnskabsåret 2024. Dette tal er det samme som indtægterne for hele AWS -divisionen, der blev annonceret af Amazon i sit andet kvartal.Det rapporteres, at kun en lille del af det kan tilskrives kunder, der kører AI -arbejdsbelastninger på Annapurna -infrastrukturen.

Hvad angår den rå ydeevne af AWS -chips og NVIDIA -chips, undgår Amazon direkte sammenligninger og indsender ikke deres chips til uafhængige ydelses benchmarks.

Moor Insights & Strategy Chip-konsulent Patrick Moorhead mener, at Amazons påstand om en 4-fold præstationsforbedring mellem Trainium 1 og Trainium 2 er nøjagtig, da han har gennemgået virksomheden i årevis.Men præstationsdata er muligvis ikke så vigtige som blot at give kunderne flere valg.

Folk sætter pris på alle de innovationer, der er bragt af Nvidia, men ingen ønsker at se Nvidia besætte 90% af markedsandelen, "tilføjede han."Denne situation varer ikke for længe

Vælg sprog

Klik på pladsen for at afslutte