KOMPONENTER/MEMORY NAND-flash kan opfylde AI-æraens krav til memory AI’s indflydelse flytter grænserne for datalagring i fremtidens applikationer. Følgende artikel giver et blik ind i, hvordan man nu og i fremtiden vil udvikle flash-IC’er og controllere til at opfylde de stigende krav til datalagring i AI-applikationer, og hvordan Silicon Motions strategier for fremtiden og visioner tager sig ud Af Nelson Duann, senior VP of Client and Automotive Storage Business, Silicon Motion AI er blevet en drivkraft i alles liv, og den kunstige intelligens påvirker nu alle produkter lige banet vejen for AI-specifikke acceleratorer. Betydningen af memory-teknologier må i den sammenhæng ikke blive over- set. Udviklingen af hurtigere memory-interfaces og større memory-kapacitet er kritiske faktorer inden for væksten af AI til praktisk brug. regnekraft i selv de mest al- mindelige daglige forbruger- produkter. NAND-flash-lagring for AI i fremtiden I takt med at AI går mod edg- en, er der behov for memory- løsninger, der kan opfylde de Grafisk repræsentation af Silicon Motions komponentstrategi for AI-markederne. fra smartphones til healthca- re-produkter. Forbrugerne op- lever nu AI i meget forskellige sammenhænge, hvilket spæn- der lige fra real-time oversæt- telser af det talte sprog over hurtigere triagering inden for healthcare til bedre digitale fotografier – og i alle tilfælde med teknologiens mulighed for at flytte og behandle store datamængder ved meget høje hastigheder. AI’s hurtige vækst både i ed- gen og clouden hænger sam- men med den sømløse flyt- ning af data. Både volumen og hastighed, som kræves i AI til behandling af information, er forrygende, i takt med at applikationer som genera- tive AI-værktøjer er dukket op. Værktøjerne genererer tekst, billeder, video, audio og kode, og AI er nu overalt lige fra de mindste wearables til kraftige applikationer som genomisk sekvensering. Det er endda kun starten på en mere omfat- tende transformation, hvor AI vil blive dybt integreret i alle del af vores liv. Stigende krav til computer-platformene Overgangen til AI fra kun at være et klassificeringsværktøj har ført til generative bruger- cases, der er langt mere bereg- ningstunge, og som er drevet fremad af fremskridt inden for hardwaren. Behovet for hur- tigere processorer og hetero- gene computersystemer har AI’s grådighed efter data stiller i dag krav om langt højere in- terface-båndbredder og mere effektive memory-arkitekturer end tidligere. AI både forbru- ger og genererer massive da- tamængder især inden for den generative AI, hvor outputs – som syntetiserede billeder, audio og video – bliver skabt i enorme mængder. AI’s betydning for memory-behovet Den stigende tilstedeværelse af AI-applikationer, især inden for generativ AI som ChatGPT, har øget presset på memory- systemer betydeligt. De fleste nuværende AI-applikationer er endnu cloud-baserede med enorme datacentre som vær- ter og drevet af tech-giganter som Google, Microsoft og Meta. Disse datacentre har investeret massivt i den hard- ware, der er i stand til at sup- portere den krævende natur fra AI-arbejdsbyrderne. Men AI er begyndt at migrere til edge-platforme som pc’er, smartphones og selv biler, hvorfor memory- og bereg- ningskravene også ændrer sig. Det er ikke mindst beho- vet for databeskyttelse, som trækker udviklingen i retning af edge-AI. Netop AI i edgen beskytter data mere effektivt, da AI-beregningerne bliver udført lokalt på de fysiske apparater, men det giver naturligt en enorm vækst i kravet om både memory og øgede krav til tæthed, hastig- hed og effektivitet. Her spiller NAND-flash-teknologier en væsentlig rolle, og innovative produkter som TLC- (Three- (Grafik: Shutterstock). Level Cell) og QLC- (Quad- Level Cell) strukturer skubber kapacitetsgrænserne fremad og opad. Der findes i dag 3D NAND stacking-teknologier med over 200 lag, og SSD’er på Terabyte-niveau er ved at blive almindelige. Silicon Motion har længe væ- ret i front af NAND-flash-ud- viklingen. Virksomheden var den første til at introducere en controller, der supporte- rer QLC NAND SSD’er og har dermed sat en høj standard for ydelse og dataholdbarhed i AI-applikationer. Large lan- guage-models (LLM’er) som GPT dokumenterer AI’s stress på memory-systemerne. Med milliarder af parametre kræ- ver disse transformerbaserede modeller omfattende lagring med kontinuerte read/write- operationer under trænings- og inferensprocesserne. I takt med at både LLM’er og andre generative modeller udvikler sig, vil NAND-flash-lagring kræve fortsat højere hastighe- der, større kapacitet og højere energieffektivitet. Silicon Motions strategi for AI-æraen Som svar på AI’s større rolle i forbrugerprodukter har Sili- con Motion fokuseret på at udvikle hurtigere memory- løsninger med større kapaci- tet og lavere forbrug. Silicon Motion har dedikeret sin ind- sats mod at øge SSD-data- tætheden og samtidigt finde på innovative måder at øge kapaciteten på uden også at øge energiforbruget propor- tionalt, og dét er selvfølgelig en stor udfordring. Et fokusområde for Silicon Motion er de cutting-edge procesgeometrier, som virk- somhedens foundry-partnere anvender samt nye teknikker som ”power-islands” til mere granuleret chip-styring. Des- uden undersøger virksomhe- den avancerede metoder at organisere data på som Fle- xible Data Placement (FDP) til solid-state drives (SSD’er) og Zone Name Space (ZNS) til mobile applikationer, hvilket sikrer, at datalagringsløsnin- ger bliver skræddersyet til de ofte varierende krav fra for- skellige elektronikprodukter. Et godt eksempel er også Sili- con Motions nyligt lancerede SM2756 UFS 4.0-controller, der understreger virksomhedens innovationsniveau. SM2756- controlleren er fremstillet med en low-power 6nm-proces, som supporterer sekventielle read/write-hastigheder på op til 4300/4000+ MB/sekund samt håndtering af op til 2TB i 3D TLC og QLC NAND-flash, hvilket er ideelle løsninger til mobile AI-applikationer. Sådan klarer vi fremtidens udfordringer I takt med at AI fortsat udvikler sig, vil også udfordringerne til de omgivende datalagrings- medier blive mere intensive. Store AI-modeller som LLM kræver overførsel af enorme datamængder mellem ap- parater og clouden, hvad der sætter fokus på såvel drifts- som energieffektiviteten. Her er Silicon Motions solide er- faring inden for NAND-flash- styring afgørende for at kunne imødekomme de voksende krav. Ser man ud i fremtiden, vil Sili- con Motion fordoble sin udvik- ling af adaptiv firmware med stadigt bedre energieffekti- vitet og support af cutting- edge interfaces som UFS 4.0 til AI-smartphones og PCIe Gen5 low-power SSD-controllere til AI-pc’er. Virksomhedens Mon- Titan SSD-controllerplatform er også godt positioneret til support af de intense krav til datacenterlagring af AI-infor- mationer. Vinden blæser dog med al ty- delig AI i retning af edgen, må konklusionen være. Enhver bruger af mobilprodukter vil i en nær fremtid anvende personlige AI-modeller på sin smartphone, hvilket medfø- rer lagring af massive data- mængder, så apparaterne kan håndtere de store og hurtige dataudvekslinger, fortsat med et minimalt forbrug. Silicon Motion flytter fortsat – og konstant – grænserne fremad med nye memory-strukturer og -teknikker, der kan opfylde både nuværende og kom- mende behov. Med den fortsatte udbredelse af AI’s rækkevidde er Silicon Motion dedikeret til at frem- elske nye memory-løsninger, der bakker op om den næste generation af AI-applikationer – uanset om der er tale om AI i datacentre, edge-produkter eller i den smartphone, vi har i lommen i fremtiden. 22 nr. 1 | Januar 2026 ESD FORBRUGSVARER, MÅLEUDSTYR OG TRÆNING SAMLET ÉT STED Se mere på hin.dk eller tlf. 76 25 90 90
Download PDF fil
Se arkivet med udgivelser af Aktuel Elektronik her
TechMedias mange andre fagblade kan læses her