- Nieuws
- Motion & Drives
- Control & Network
- Process & Instrumentation
- Sensor & Vision
- Services & Solutions
- IT & OT
Tegenwoordig gaat het alleen nog maar over AI, afkorting van ‘artificial intelligence’, oftewel kunstmatige intelligentie. Je hoort er waarschijnlijk over op sociale media, in het nieuws en misschien zelfs in je laatste binge-televisieserie. Hoewel het concept al bestaat sinds de jaren ’50, heeft de term in vrijwel elke bedrijfstak de status van ’toptrend’ bereikt.
Tijdens deze hele hype heb jij jezelf waarschijnlijk op een gegeven moment de zeer praktische vraag gesteld – wat is AI? Het heeft al een grote impact, van autonome voertuigen tot robots die gevaarlijk werk uitvoeren, en zelfs bij jou in de buurt waar het kan worden gebruikt om het verkeerslicht op precies het juiste moment op groen te laten springen. De toepassingen voor AI-technologie zijn vrijwel onbeperkt. Hieronder kijken we naar wat AI is, hoe het werkt en hoe geïndustrialiseerde edge devices AI-innovaties aandrijven.
AI staat voor ‘artificial intelligence’, oftewel kunstmatige intelligentie, en richt zich op technologieën die proberen de resultaten of output van de menselijke intelligentie te repliceren. Daarvoor moet AI zich een weg banen door complexe informatieverwerking, waaronder: leren, redeneren, probleemoplossing, taalgebruik en perceptie.
AI is niet één computerprogramma of toepassing; het is een hele tak van informatica. Globaal gezien zijn er twee fasen van AI: training en inferentie.
Training voor AI is het proces van het creëren van een AI-algoritme om een gewenste taak uit te voeren door het algoritme te voorzien van een gecontroleerde gegevensset. Tijdens het trainingsproces worden de gegevens geanalyseerd zodat het algoritme structuur en patronen in de gegevens kan ontdekken. Het doel is dat de software geïnformeerde voorspellingen kan doen wanneer nieuwe gegevens worden verstrekt. Effectieve AI-training vereist enorme hoeveelheden gegevens en veel rekenkracht, vaak met behulp van multicoreprocessors en GPU’s.
AI-inferencing is het proces waarbij het getrainde model wordt gebruikt om voorspellingen te doen en de data om te zetten in bruikbare inzichten. Vanuit het oogpunt van de hardware zijn GPU’s en multicoreprocessors niet altijd vereist voor inferencing. Het is een model dat wordt toegepast en waaraan wordt gerefereerd. Het wordt dus niet gebouwd.
Het werkveld van kunstmatige intelligentie is groot en wordt met de dag groter. Als je het toch wilt opsplitsen, zou je de toepassingen van AI kunnen onderverdelen in verschillende typen, waaronder Machine Learning, Deep Learning, NLP (natuurlijke taalverwerking), Expert Systems, Robotica en Machine Vision.
Je gebruikt AI waarschijnlijk heel vaak in je dagelijks leven zonder het zelfs maar te weten. Enkele voorbeelden die je misschien zelfs vandaag nog hebt gebruikt, zijn:
Naast deze alledaagse voorbeelden zijn ook veel industrieën afhankelijk van AI. Enkele voorbeelden zijn:
Al deze voorbeelden zijn slechts het spreekwoordelijke topje van de ijsberg. Er zijn toepassingen voor AI in bijna elke industrie, wat leidt tot de ongelooflijke groei van Edge AI.
Om bijna real-time besluitvorming mogelijk te maken, halen veel bedrijven AI-oplossingen weg uit de cloud en verplaatsen ze deze naar de edge, dichter bij de bron van de systemen die de gegevens maken. De edge van het netwerk kan zich bevinden in een magazijn, op een productielijn, op een vorkheftruck of zelfs in de woestijn.
Robuuste industriële computers met krachtige processors zijn ontworpen om in een dergelijke omgeving te overleven; ze zijn bestand tegen vuil, stof, trillingen en temperatuurschommelingen. Industriële hardware van OnLogic is verkrijgbaar met een geïntegreerde of afzonderlijke GPU en kan bijna overal worden geïnstalleerd. Ze bieden de nieuwste technologie met alle kernen, threads, geheugen, connectiviteit en versnellers om je AI-aan-de-edge-oplossing aan te drijven.
De explosieve groei van AI en de daaruit voortvloeiende waarde zijn nauw verbonden met de explosie van beschikbare gegevens, modellen en de vooruitgang van de technologie om de verzamelde informatie te verwerken en daarop te reageren. Enkele van de belangrijkste verbeteringen zijn:
Als het gaat om hardwareopties voor AI, zien we dat verschillende toepassingen verschillende AI-oplossingen vereisen.
Als je AI-oplossing zich in de cloud bevindt, heb je een IoT-gateway nodig. Deze kleine maar betrouwbare computer is de schakel tussen gegevens die worden verzameld door geïntegreerde sensoren en de cloud. Ze spelen een steeds belangrijkere rol in AI-oplossingen voor het verzamelen, opslaan en soms gedeeltelijk verwerken van binnenkomende gegevens voordat deze worden verzonden.
Zo hebben we de Karbon 410 ontworpen voor betrouwbaarheid onder zelfs de meest uitdagende installatieomstandigheden, waaronder extreme temperaturen en trillingsgevoelige locaties. We combineerden innovatieve fanless koeling en flexibele configuratie-opties met geavanceerde Intel® Atom®-processors (voorheen Elkhart Lake).
Een aantal van de nieuwste processors met hun geïntegreerde GPU kunnen eenvoudig AI-inferentieoplossingen aan de edge ondersteunen. De fanless Helix 511 van OnLogic bijvoorbeeld wordt aangedreven door Intel 12e generatie processors met hybride corearchitectuur en DDR5-geheugen. Deze compacte krachtpatser biedt een overvloed aan I/O’s, waaronder aansluitmogelijkheden voor verouderde apparatuur en krachtige verwerking voor een AI-aan-de-edge-oplossing. Aparte GPU’s zijn niet altijd nodig en kunnen de kosten van een computer aanzienlijk opdrijven. Door inferentie op een CPU of geïntegreerde GPU (iGPU) uit te voeren, kun je de kosten van een effectieve AI-implementatie verlagen.
Wil je een robuustere oplossing implementeren? Aangedreven door een 12e of 13e generatie Intel Core™-processor met afzonderlijke GPU? Dan biedt de Karbon 804 ongelooflijke rekenkracht en flexibiliteit. We hebben dit systeem ontworpen voor de meest veeleisende omgevingen en met PCIe Gen 4-uitbreiding voor geavanceerde GPU-ondersteuning. Dit rugged systeem is een ideaal platform voor automatisering, machine learning of AI.
Voor complexe workloads, deep learning aan de edge en training en inferentie op locatie, is een GPU-server zoals de AC101 een geweldige oplossing. Dit platform biedt Intel 13e generatie processors en geavanceerde GPU’s en DDR5-geheugen. Veel bedrijven gebruiken edge servers in hun strategieën voor cloudrepatriëring, waarbij ze computerresources naar de edge verplaatsen om latentie te voorkomen en de operationele kosten te verlagen.
Klaar om aan de slag te gaan met je AI-oplossing? Onze oplossingsspecialisten staan klaar om ervoor te zorgen dat je over de verwerkingskracht en I/O beschikt om je AI-modellen in beweging te krijgen, zelfs in de meest uitdagende omgevingen. Neem contact met ons op.