TwinCAT Machine Learning tilbyder yderligere Inference Engine
Med TwinCAT Machine Learning Server som en yderligere Inference Engine, møder TwinCAT Machine Learning også de til stadighed stigende krav til Machine Learning (ML) eller Deep Learning til industrielle applikationer. ML-modeller bliver mere og mere komplekse, udførelseshastigheden forventes at stige, og der kræves endnu større fleksibilitet af Inference Engines.
TwinCAT Machine Learning Server er et standard TwinCAT PLC-bibliotek og en såkaldt near-real-time Inference Engine, dvs. i modsætning til de to tidligere Engines udføres den ikke i hård realtid, men i en separat proces på IPC’en. Til gengæld kan stort set alle AI-modeller eksekveres i Server Engine og dette med fuld understøttelse af det standardiserede udvekslingsformat Open Neural Network Exchange (ONNX). Desuden er der AI-optimerede hardwaremuligheder for dette TwinCAT-produkt, der muliggør skalérbar ydeevne.
TwinCAT Machine Learning Server kan fungere i klassisk parallelisering på CPU-kerner, enten ved at bruge den integrerede GPU fra Beckhoff industri-PC’erne eller få adgang til dedikerede GPU’er, f.eks. fra NVIDIA. Dette giver en Inference Engine med maksimal fleksibilitet med hensyn til modeller og høj ydeevne med hensyn til hardware. Anvendelser kan findes i prædiktive og præskriptive modeller såvel som i Machine Vision og robotteknologi. Som eksempler kan nævnes billedbaserede metoder til sortering eller vurdering af produkter, til defektklassificering samt defekt- eller produktlokalisering og til beregning af gribepositioner.