Ved hjælp af AI til at sikre den globale forsyningskæde

0
129
supply-chain-2.jpg

Ifølge førende supply chain analytiker Louis Columbus, der er den største udfordring for den højteknologiske industri i 2019 vil være at sikre deres forsyningskæder. Udfordringen er, at der som forsyningskæder bliver mere komplekse, og producenterne kan ikke være i stand til at besvare spørgsmålet med tillid til, hvem deres leverandører virkelig er. I de gode gamle dage, supply chain spørgsmål, der er centreret omkring produktets kvalitet og pris, med højteknologiske produkter i dag, den nationale sikkerhed kan være i fare. Som nye beviser, Columbus citerer en nylig offentliggjort undersøgelse foretaget af Bloomberg Businessweek på, hvordan de Kinesiske underleverandører sneg rogue spyware chips på bundkort til servere, der angiveligt leveres til højt profilerede kunder som Apple og Amazon – hændelser, som virksomhederne har ikke offentligt anerkendt.

PricewaterhouseCoopers (PwC) har lanceret Ved Forhandleren, en service platform for producenterne til at reducere usikkerhed, der sælger risiko og pålidelighed. For komplekse globale forsyningskæde, det er en opgave, der er meget sværere end det lyder. Du kan identificere din primære leverandører, men da de løber tør for kapacitet, de fleste downstream-producenter kan ikke vide, hvem der rent faktisk leveret en bestemt underkomponenter opstrøms. Denne mangel på synlighed tilladt rogue spyware chip til at få shoehorned til færdige produkter, før de gode realiseret.

PwC-service seler machine learning til at hjælpe producenterne med at åbne vinduet på deres forsyningskæder til at forstå og afbøde risici og potentielle compliance-problemer i deres forsyningskæder. Specielt, det hjælper dig med at identificere de leverandører i din forsyningskæde, som kan være en udfordring, når din primære leverandører er nødt til at give i underentreprise ud af arbejdet (som er hvordan disse rogue chips slået op i Bloomberg citeret tilfælde). Og baseret på data fra en række kilder, service hjælper producenter til at kvantificere den risiko, der er forbundet med at drive forretning med de leverandører, og de deraf følgende virkninger på overholdelse mandater.

Opgaven er bestemt kompleks, men det, der adskiller dens tilgang er, at det udnytter big data, og derefter tog machine learning modeller til at bidrage til at sikre konklusioner. Ifølge en hovedstol med projektet, er i dag meget komplekse, ofte omskiftelige globale forsyningskæder foretage sådanne opgaver for store til, at mennesker alene for at få deres arme omkring. Nøglen til at automatisere denne løsning kræver, at den velkendte kombination af data videnskab, data, teknik og domæne ekspertise.

Det er bygget sin tjeneste på Koverse Intelligente Løsninger Platform. Seattle-baserede selskab, der er stiftet af NSA veteraner, giver en data integration, indeksering og søgning platform bygget på toppen af Hadoop, ved hjælp af Apache Accumulo i stedet for HBase. Accumulo er en swap-key-value store udskiftning, der kører i Hadoop, der understøtter sikkerhed ned til “celle” (kolonne og række) niveau. Det blev oprindeligt udviklet til NSA, fordi, på det tidspunkt, Apache Hadoop manglede tilstrækkelig sikkerhed, og fordi NSA ‘ s krav til data-sikkerhed var langt mere vidtgående, end de fleste virksomheder i den private sektor er nødvendig. Den Koverse platform adskiller sig fra traditionelle data warehouses i, at det etiketter og indekser data om beregne. Det er nøglen grund af de mange forskellige data-kilder, at det indtager, lige fra kendte kilder, såsom interne finansielle systemer til e-mail, kunde eller leverandør portaler, leverandør eller kunde portal data, sociale medier chatter, sammen med kilder fra “dark web.”

For eksempel, en fremstilling kunde, der søger at identificere forekomst af forfalskning kunne scanne kunde-hjemmesider, sociale medier og andre kilder, ved hjælp af naturligt sprog forarbejdning til at identificere alle tilfælde af klager. For eksempel, de kan modtage klager fra forhandlere at identificere forekomster af andre butikker, der sælger det samme produkt, for 90% mindre.

At komme til det punkt kræver en kombination af kontrollerede og ukontrollerede læring på en gang-før-du-kører tilgang. Startende med et kendt datasæt, som et indre finansielt system, hvor tvivlsomme transaktioner er allerede markeret, med den opgave at føre tilsyn lære at begynde at opbygge den model, derefter gradvist at udvide det med tilføjelse af en ny uddannelse datasæt. Når den første model hits 90-percentil nøjagtighed priser, modellen kan derefter blive sluppet løs i uovervåget tilstand til nye eller mindre kendte data sæt, og nye scenarier.

Samtidig med at få den rigtige model lyder kompliceret, det overraskende er, at “matematik er let” i forhold til den opgave tovtrækkeri data. Det er i overensstemmelse med vores vurdering af data, som forskere bruger op mod 80 – 90% af deres tid på at rense og harmonisering af data – en opgave, der kun i de bedste af omstændigheder der kan være reduceret til måske halvdelen af deres belastning.

Med den tjeneste, der kører nu for lidt over et år, er der nu konkrete resultater at rapportere. For en stor forbruger produkter producent, de var i stand til bogstaveligt talt at kortlægge kundernes supply chain, hvilket i en række tilfælde, som er identificeret obskure leverandører med 4 eller 5 part underleverancer relationer, som CPG virksomheden ikke tidligere har været opmærksom på. Og ved hjælp af machine learning-modeller, service identificeret tillid niveauer med hensyn til den grad af risiko, og i nogle tilfælde, der er identificeret alternative sourcing strategier, som reduceret risiko og overholdelse af lovgivningen spørgsmål.

Mens du ikke kan (og selvfølgelig ikke skal) tage mennesker helt ud af ligningen, at decifrere de globale forsyningskæder er vokset så kompleks, at det kræver en maskine til at hjælpe med at regne ting ud.

Relaterede Emner:

Kunstig Intelligens

Digital Transformation

Robotteknologi

Tingenes Internet

Innovation

Virksomhedens Software