Als strategen in grote bedrijven schijnbaar dezelfde strategieën opschrijven, wat gebeurt er als een AI de pen hanteert? In dit artikel analyseer ik een strategie geschreven door een AI: wat zegt het over de kwaliteit van de AI en over het maken van strategie?

Drie jaar geleden vroeg ik me af of grote bedrijven allemaal dezelfde strategie hadden. Misschien klonken hun strategieën allemaal hetzelfde omdat managers dezelfde ideeën oppikten van MBA’s en consultants, of omdat ze dezelfde copywriters inhuurden. Vorige maand verscheen er een nieuwe bron van niet-onderscheidende strategieën – een strategie geschreven door AI.
GPT-3
De AI in kwestie is GPT-3 van OpenAI, dat de laatste tijd veel aandacht krijgt. Hier is een korte introductie van GPT-3: het is een taalvoorspellingsmodel dat automatisch tekst aanvult op basis van de tekst die je invoert, zoals je ziet wanneer je de zoekmachine van Google gebruikt. Het kan veel verschillende soorten tekst aanvullen, waardoor het een breder scala aan toepassingen heeft dan andere modellen.
De kracht ervan schuilt in zijn enorme omvang. Het is getraind met een enorme hoeveelheid tekst van het internet en beschikt over 175 miljard parameters waarin het de patronen in die teksten opslaat. De reactie op een invoer is de tekst die statistisch gezien het meest waarschijnlijk erop volgt. Dus hoe meer voorbeelden het heeft, hoe beter het de invoer kan matchen.
Strategie geschreven door AI
Vorige maand vroeg een VC-investeerder GPT-3, bij wijze van test, om de tweede helft van zijn investeringsmemo te schrijven. Het leverde verschillende alinea’s tekst op onder de kop “strategie”. Het interessante aan deze tekst is dat het heel aannemelijk klinkt, maar niet helemaal klopt.
Hier is een deel van de input die GPT-3 ontving:
Sword Health is a full stack digital physical therapy provider. They are the first group in the world to create remote autonomous digitally guided therapy […]
An important aspect of their go to market strategy is to offer the solution to payers as an acute care and preventative solution, which the cost structure of current in-person PT centers cannot support. They then use this as a wedge to expand into displacing PT centers.
En hier is het begin van de strategie geschreven door AI:
First, we would acquire or acquirer an ambulatory primary care center that has PT, sports medicine, and physical therapy expertise. Then build a Sword center within that facility, allowing Sword to scale without having to scale its own brick and mortar centers.
Het eerste dat opvalt is dat dit, afgezien van de grammaticale fouten, een coherente alinea is die relevante onderwerpen behandelt en een argumentatie op een logische manier presenteert. Het is indrukwekkend. De inhoud klinkt ook op het eerste gezicht goed.
Maar… laten we eens kijken wat er vanuit een strategisch oogpunt staat. Voor een digitale service startup die snel wil opschalen, is het overnemen van fysieke centra een langzame en dure manier om op te schalen. Ze zouden in het bezit komen van fysieke activa waarvoor de ervaring missen om deze te beheren. Het is geen logische stap binnen hun go-to-marketstrategie die zich richt op betalers, laat staan de eerste stap die ze moeten nemen in hun strategie.
Het niveau waarop de output niet klopt, is dus vrij subtiel en moet zorgvuldig worden gecontroleerd om het te kunnen zien. Een snelle blik is niet genoeg.
Wat AI doet
Het interessante aan dit voorbeeld is dat het illustreert hoe AI en voorspellende analyses werken. We zijn bekend met AI die wordt gebruikt om gesloten vragen te beantwoorden zoals “Mensen die dit item kochten, kochten ook…”, waarbij het gewenste antwoord is om er één te selecteren uit een vaste set items. GPT-3 lijkt de ambitieuzere open vraag “Vul deze tekst aan zoals u wilt”, te beantwoorden, maar beantwoordt in feite een gesloten vraag: “Welke woorden volgen statistisch gezien het meest waarschijnlijk op de woorden in de input?”
Er is een limiet aan het soort antwoord dat de AI kan geven gegeven hoe het werkt. GPT-3 “weet” niets behalve de frequentie van patronen die zich herhalen in tekst die het eerder heeft gezien. Het behandelt tekst zonder onderscheid en behandelt alle invoertekst als even waardevol. Het generaliseert de tekst niet naar kennisregels, kan geen logica of redenering toepassen en controleert ook niet op inconsistenties in het antwoord. Zoals de auteur van het investeringsmemo zegt, begrijpt GPT-3 niet of de uitkomst klopt of niet.
Dit voorbeeld laat dus mooi zien dat voorspellingsfouten van AI-modellen eerder subtiel dan overduidelijk kunnen zijn, vooral naarmate de modellen geavanceerder worden. Hoeveel die fouten ertoe doen en hoe ze kunnen worden beperkt, hangt af van de toepassing die de AI gebruikt. Houd hier rekening mee bij het gebruik van AI in uw bedrijf.
Kritisch denken
In mijn eerdere artikelen schreef ik dat een goede strategie iets anders zou doen dan die van concurrenten. Omdat AI elementen uit bestaande strategieteksten samenvoegt, kan het niets origineels creëren. Ik kan me voorstellen dat je AI gebruikt als een schrijfhulp die tekstfragmenten genereert die je kritisch onderzoekt op ideeën (willen we fysieke winkels, en zo ja, wat zijn de voordelen daarvan), of als een waarschuwing voor wat je beter kunt vermijden (hmm, als dat vaak als strategie wordt genoemd, wat gebeurt er dan als iedereen het doet).
Uiteindelijk is het zo dat als je een strategie wilt hebben die je een concurrentievoordeel geeft, je nog steeds zelf het harde werk zult moeten doen om kritisch na te denken.
© 2020 Veridia Consulting