Het oude adagium “garbage in, garbage out” is nooit uit de mode geraakt. De vraatzuchtige honger naar gegevens van de kant van analyse- en machine learning-modellen heeft de urgentie vergroot om de gegevens goed te krijgen. De discipline van DataOps is ontstaan als antwoord op de behoefte van zowel bedrijfsanalisten als datawetenschappers om vertrouwen te hebben in de gegevens die hun modellen en dashboards vullen.
De inzet om gegevens goed te krijgen, neemt toe naarmate data-ingenieurs, en datawetenschappers bouwen talloze datapijplijnen om hun modellen te vullen. We maken ons al lang zorgen over AI- en ML-modeldrift, maar zou hetzelfde mogelijk kunnen zijn met gegevensbronnen die degraderen of oud worden? Of met datapijplijnen waar operaties geleidelijk uit koers raken als gevolg van operationele problemen zoals onverwachte latentie die de betrouwbaarheid van datafiltering of transformaties zou kunnen verstoren en weggooien.
Verwante onderwerpen:
Cloud Digital Transformation Robotics Internet der dingen Innovatie Bedrijfssoftware