AI en machine learning: waar zijn de checks and balances? Bekijk nu
Google en Amazon Web Services (AWS) hebben hun respectieve werk aan modellen voor machine learning (ML) benadrukt die landen kunnen helpen om te gaan met milieucrises die met toenemende regelmaat over de hele wereld plaatsvinden.
De bedrijven hebben hun inspanningen aangekondigd om de effecten van klimaatverandering, zoals overstromingen en bosbranden, aan te pakken terwijl de VN-conferentie over klimaatverandering in het VK 2021 (COP26) deze week afloopt.
Overstromingen
Getty Images
Google heeft een niet-peer-reviewed artikel gepubliceerd over zijn overstromingsvoorspellingssysteem met machine learning-modellen die naar eigen zeggen “nauwkeurige realtime waarschuwingen voor overstromingen bieden aan instanties en het publiek, met een focus op rivieroverstromingen in grote, gemeten rivieren”. Het artikel is geschreven door onderzoekers van Google Research en de Hebreeuwse Universiteit van Jeruzalem in Israël.
ZIE: Rapport constateert opzienbarende desinteresse in ethisch, verantwoord gebruik van AI onder bedrijfsleiders
Google's initiatief voor het voorspellen van overstromingen, gelanceerd in 2018, stuurt waarschuwingen naar smartphones van mensen in overstromingsgebieden. Het maakt deel uit van het Crisis Response-programma van Google, dat samenwerkt met eerstelijns- en hulpdiensten om technologie te ontwikkelen.
Sinds 2018 is het programma uitgebreid tot een groot deel van India en Bangladesh, met een gebied dat bevolkt wordt door zo'n 220 miljoen mensen. Vanaf het moessonseizoen 2021 is dit verder uitgebreid tot een gebied waar 360 miljoen mensen wonen.
“Dankzij de betere technologie voor het voorspellen van overstromingen hebben we meer dan 115 miljoen waarschuwingen verzonden – dat is ongeveer het drievoudige van het aantal dat we eerder hebben verzonden”, zegt Yossi Matias, vice-president engineering en crisisrespons bij Google, in een blogpost .
De waarschuwingen van Google geven niet alleen aan hoeveel centimeter een rivier zal stijgen. Dankzij de nieuwe machine learning-modellen die gebruikmaken van diepe neurale netwerken van het Long Short-Term Memory (LTSM), kan het nu “overstromingskaarten” bieden die de omvang en diepte van overstromingen als een laag op Google Maps weergeven.
De onderzoekers beweren dat “LSTM-modellen beter presteerden dan conceptuele modellen die waren gekalibreerd op lange gegevensrecords in elk bassin”.
“Hoewel eerdere studies bemoedigende resultaten hebben opgeleverd, is het zeldzaam om echte operationele systemen te vinden met ML-modellen als hun kerncomponenten die in staat zijn om tijdige en nauwkeurige overstromingswaarschuwingen te berekenen”, aldus de onderzoekers van Google.
Branden
Getty Images
AWS , heeft ondertussen samengewerkt met AusNet, een energiebedrijf gevestigd in Melbourne, Australië, om bosbranden in de regio te helpen verminderen.
AusNet heeft 54.000 kilometer aan hoogspanningslijnen die energie distribueren naar ongeveer 1,5 miljoen huizen en bedrijven in Victoria. Naar schatting bevindt 62% van het netwerk zich in gebieden met een hoog risico op bosbranden.
AusNet heeft auto's gebruikt die zijn uitgerust met LiDAR-camera's in Google Maps-stijl en Amazon SageMaker-machine learning om de vegetatiegebieden van de staat in kaart te brengen die moeten worden gesnoeid om bosbranden te voorkomen. Het vorige systeem was gebaseerd op een GIS (Geografisch Informatie Systeem) en gebruikte aangepaste tools om LiDAR-punten te labelen.
AusNet werkte samen met AWS om de classificatie van LiDAR-punten te automatiseren door gebruik te maken van de beheerde deep-learningmodellen van AWS, GPU-instanties en S3-opslag.
AusNet en AWS bouwden een semantisch segmentatiemodel dat nauwkeurig 3D-puntenwolkgegevens classificeerde voor geleiders, gebouwen, palen, vegetatie en andere categorieën, merkt AWS op in een blogpost.
ZIE: Wat is digitale transformatie? Alles wat u moet weten over hoe technologie het bedrijfsleven verandert
“Het team was in staat om een model te trainen met een snelheid van 10,8 minuten per tijdvak op 17,2 GiB aan niet-gecomprimeerde gegevens over 1.571 bestanden met een totaal van ongeveer 616 miljoen punten. Voor gevolgtrekking kon het team 33,6 GiB aan niet-gecomprimeerde gegevens verwerken in 15 bestanden in totaal 1,2 miljard punten in 22,1 uur. Dit vertaalt zich naar een gemiddelde van 15.760 punten per seconde inclusief afgeschreven opstarttijd”, stelt AWS.
“Het snel en nauwkeurig kunnen labelen van onze luchtonderzoeksgegevens is een cruciaal onderdeel van het minimaliseren van het risico op bosbranden”, zegt Daniel Pendlebury, productmanager bij AusNet.
“Door samen te werken met het Amazon Machine Learning Solutions Lab, hebben we een model kunnen maken dat een gemiddelde nauwkeurigheid van 80,53% behaalde bij het labelen van gegevens. We verwachten dat we onze inspanningen op het gebied van handmatig labelen met wel 80% kunnen verminderen met de nieuwe oplossing.”
Kunstmatige intelligentie
GE, Einride onthullen eerste autonome elektrische vrachtwagen die op Amerikaanse bodem rijdt De DeepMind-tak van Alphabet gebruikt AI voor het ontdekken van medicijnen Nieuwe burgerbot doet ook kippenvleugels Wat is AI? Alles wat u moet weten over kunstmatige intelligentie Amazon | Digitale transformatie | CXO | Internet der dingen | Innovatie | Bedrijfssoftware