KOMPONENTER/VISION Embeddede vision-systemer til den virkelige verdens applikationer Visuelle inputs er uden tvivl den bedste kilde til sensorinformation. Branchen har i årtier forsøgt at bruge billedteknologierne med udvikling af algoritmer, som skulle få maskiner til at kunne ”se”. De nyeste kommercielle machine-vision systemer har gjort analyse af hurtigt bevægelige objekter og fejldetektering i produkter til egentlig AI – kunstig intelligens – hvilket er hjulpet af fremskridt inden for sensorer, algoritmer og indlæringsevnen i maskinerne Af Michaël Uyttersprot, teknisk marketingchef, Avnet Silica Dagens kombination af embeddede systemer og computer-vision har ført til nye, embeddede systemer, der er blevet stadigt bedre til at fungere under varierende lysforhold, HD-billedbehandling eller high-end applikationer understøttet af processorer udviklet specielt til formålet. Et stadigt større antal produkter med visuelle inputs er på vej inden for alle slags markeder lige fra forbrugerformål over automotive, industrielle og healthcare-applikationer til markedet for hjemmeautomationsprodukter. IoT åbner døren for milliarder af nye forbundne applikationer – herunder de visuelle. Målet med IoT er at bibringe intelligens til tilgængelighed for produkter overalt i verden. ”Intelligens” betyder som regel, at elektronikken forenkler vores liv som gennem genkendelse af ansigter i adgangskontrolsystemer, der automatisk lukker godkendte folk ind – hvilket bare er en enkelt blandt mange visionapplikationer. Generelt er apparater mere værdifulde, hvis de kan interagere med den fysiske verden, og visuelle inputs er især et plus. De opsnapper en mængde information fra det omgivende miljø. Robotter har fra starten været baseret på vision og billedsensorer. Vision hjælper robotter til at styre deres motorer, så output for et system bliver højeffektivt. Desuden har den seneste udvikling inden for AI gennem de såkaldte convolutional neurale netværk (CNN) og lignende teknologier givet maskinerne mulighed for at lære af deres fejl via de intelligente visionsystemer og processorer, der løbende gør algoritmerne i stand til at genkende stadigt mere forvrængede billeder. Udfordringerne Embedded vision kan give værdi til alle elektronikmarkeder gennem forbedringer af både hardware- og software. Der ligger dog mange udfordringer på tværs af alle dele af CCD/CMOS Image sensor or Camera module CCD/CMOS Image sensor or Camera module Audio Single or multi-camera input Processing: CPU GPU DSP FPGA Compression: MJPEG H.264 Other sensors: Thermal imaging Sonar Ultrasonic 3D imaging (laser, stereo, fringe protection) Power Supply Batteries Typisk high-level embedded vision-system. et system i udviklingen af embedded vision. Rå billeddata skal uanset kvalitet – video eller stillbilleder – fortsat optimeres og behandles. En dårlig linse vil påvirke hele billedbehandlingen. Og datamængderne kan være enorme, især inden for højop- løst video og real-time billedbehandling. Mange high-end vision-applikationer kræver parallelle processorsystemer eller dedikeret hardware som GPU’er, DSP’er, FPGA’er eller coprocessorer. Men de embeddede vision-systemer er ofte begrænsede i forhold til Algorithms for: Detection Recognition Learning Bridge: MIPI to USB 3.x . Security Memory & Storage DRAM FLASH SD-Card Machine Vision GigEVision (GEV) USB3Vision (U3V) CoaXPress (CP) Security, IoT, . Ethernet Wi-Fi 3G/4G pris, størrelse og forbrug. En high-end processor-engine kan have den fornødne ydelse, men den kan omvendt være for dyr eller for effektforslugen til en given applikation. Embedded vision er designet til at fungere i den virkelige verdens betingelser, som konstant ændrer sig i forhold til lys, bevægelse og orientering. Brugen af specialiserede vision-algoritmer til styring af data er nøglen til et godt resultat under disse forhold. Hvis under dårligt lys, så medfører en bedre billedkvalitet, et lavere forbrug og lavere pris, at CMOS-sensorerne anvendes langt bredere end CCD. CMOS-teknologien udvikles også hele tiden med reduktioner i pixel-størrelsen og en bedre opløsning med den tilhørende nødvendige højere hastighed af interconnects og båndbredde. Dertil kommer, at formfaktorerne hele tiden bliver mindre, så dobbeltkameraløsninger og stereo-vision ” Rå billeddata skal uanset kvalitet – video eller stillbilleder – fortsat optimeres og behandles man kun bruger simulering, vil applikationen sjældent virke, hvorfor tidskrævende tests i den virkelige verden er påkrævet. Det gælder især inden for de automotive-, sikkerhedsog robotapplikationerne. Embeddede vision-systemer omfatter et bredt udsnit af komponenter, og der er mange forskellige måder at integrere dem på, men primært inkluderer de billedbehandlings- og computervision-teknologier. I systemets input er CMOS og CCD (charge-coupled device) de to førende teknologier til billedfangst. CCD giver den højeste overordnede kvalitet, men forbedringerne inden for CMOS-billedteknologi gør forskellene mindre. Ud over evnen til at ”se” billeder kan hjælpe til at kompensere for forvrængning, detektere dybde, forbedre dynamikområdet og øge skarpheden af billederne. Valget af processor afhænger af behov som real-time ydelse, forbrug, billedpræcision og kompleksitet i algoritmerne. Der er sket løbende forbedringer inden for processorkraft og vision-algoritmer med en stigende grad af integration af simultane lokaliserings- og mapping-funktioner (SLAM) til automotive-, robot- og drone-formål. Lokal memory-lagring er også påkrævet til lagring og sammenligning af data til fremtidig analyse. Lagring af delelementer eller hele billeder kan ske i såvel volatile- og non-volatile memory-typer. 26 nr. 15 | December 2017
Download PDF fil
Cookiepolitik
Se arkivet med udgivelser af Aktuel Elektronik her
TechMedias mange andre fagblade kan læses her