WEBVTT

1
00:00:00.080 --> 00:00:10.400
[alarm] Oh! [zucht] Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.440 --> 00:00:18.600
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.740 --> 00:00:39.620
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:50.360
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Ben jij van plan om dit jaar te starten met beleggen? Of ben je er al mee bezig en zoek je een portie inspiratie?

6
00:00:50.400 --> 00:01:01.720
Wij zijn Jasper en Twan, twee doodgemonomaagde, compleet verschillende beleggers en iedere donderdag vertellen wij in onze podcast 'De Lange Termijn' over onze beleggingsreis, onze lessen en met name onze fouten.

7
00:01:02.220 --> 00:01:11.060
En dat allemaal op een vermakelijke en laagdrempelige manier. Alsof je met ons in de kroeg staat. Met een whisky'tje erbij. Lekker. Dus luister eens naar onze podcast: 'De Lange Termijn.'

8
00:01:11.620 --> 00:01:35.420
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin wij, Wytse Hage en ik, Alexander Klöpping, je bijpraten over de wondere wereld van AI.

9
00:01:35.900 --> 00:01:42.960
Met deze week twee nieuwe onderzoeken. Eén heet Funsearch. Klinkt heel erg fun. Valt eigenlijk wel mee. Gaan we het toch over hebben.

10
00:01:43.290 --> 00:01:51.399
En Phi, een nieuw taalmodel van Microsoft dat zo klein is dat het op telefoons kan draaien en wat getraind is op schoolboeken. Blijkt goed te werken.

11
00:01:51.440 --> 00:02:02.640
En ik probeer samen met Wytse eruit te vinden hoe iPhones eruit zouden zien zonder apps. Hoe Coolblue eruit zou zien zonder wasmachines en hoe we straks misschien wel weer gewoon naar het reisbureau gaan.

12
00:02:03.160 --> 00:02:14.720
Lekker bakje koffie drinken met een reisagent omdat we daar zin in hebben. Omdat AI alles mogelijk maakt. Daar gaan we het over hebben. Veel plezier! Wytse, je hebt Funsearch in het draaiboek gezet.

13
00:02:14.740 --> 00:02:26.240
Ik ben heel blij dat we hiermee kunnen openen. Wat is Funsearch? Funsearch is, uh, iets wat uit Google gekomen is. Ik heb eerder al gezegd dat die DeepMind-blog van Google toch wel interessant is

14
00:02:27.280 --> 00:02:38.680
en daar hebben ze op gepost. Even kijken, wanneer was dit? Ik denk een dag, ja, 14 december, vier dagen geleden. Ehm, ze hebben een blog gepost, maar ook direct, uhm, een linkje naar hun paper in Nature.

15
00:02:39.400 --> 00:02:50.280
En in Nature gepublished worden, dat heeft toch wel enige waarde. Dat betekent dat je door peer reviewing bent gegaan en dat het serieus genoeg is om, dat het een publicatie verdient.

16
00:02:50.920 --> 00:03:02.980
Dus dat, dat ze dat zo noemen, dat, uh, dat begrijp ik wel. Wat hebben ze gemaakt? Funsearch. Toen ik het las dacht ik: fun als in leuk, uh, blijdschap. Maar fun staat voor function. Oh, helaas. Sorry.

17
00:03:03.160 --> 00:03:18.800
Het is helemaal niet fun. Het is echt sup- You cannot have nice things. Super boring. [lacht] Ja, uhm, maar wij hebben het eerder gehad over, uh, Q* bij OpenAI, het Hollywoodscenario.

18
00:03:19.580 --> 00:03:28.600
Toen hebben we het gehad over middelbare school, wiskunde, et cetera. En eigenlijk- Waarin, ja, waarin computers, uh, algoritmes kunnen gaan maken waardoor AI zichzelf beter kan gaan maken.

19
00:03:28.620 --> 00:03:37.900
Omdat AI, AI algoritmes voor zichzelf kan gaan schrijven waardoor die modellen beter- Dat verhaal hebben we nu, niet, maak je nog geen zorgen luisteraar, dat algoritmes beter kunnen worden.

20
00:03:38.280 --> 00:03:50.040
In theorie, daar staat hier niks over in, maar dit is wel wat we toen besproken hebben, maar dan netjes gepubliceerd en uitgelegd door Google. En dit is, dit is het, de implementatie die ze bij Google hebben gedaan.

21
00:03:50.080 --> 00:03:57.480
Wat hebben ze gedaan? Ze hebben eigenlijk gezegd: we gaan een combinatie maken van, uhm, een taalmodel.

22
00:03:58.060 --> 00:04:09.340
Taalmodellen zijn tot nu toe, uhm, erg slecht in wiskunde, hè, want het zijn, uh, ja, een soort, ja, in de negatieve zin zou je kunnen zeggen papagaaien. Het zijn alfa's. Ja.

23
00:04:09.500 --> 00:04:18.380
[lacht] Nou, het is meer- Fucking alfa's tamelijk. Ze kunnen eigenlijk geen, uh, logica volgen vooralsnog, voor zover we weten. Misschien als we ze groot genoeg maken. Beetje persberichtjes tikken.

24
00:04:18.420 --> 00:04:25.220
Het is gewoon een, uh- Maar als je iets van werk moet doen, dan, uh, kunnen ze het opeens niet meer. Als het echt, als het echt, uh, uh, spannend wordt, dan haken ze af.

25
00:04:26.000 --> 00:04:33.400
Uhm, het volgende woord voorspellen gaat heel goed en daar kan je een hoop mee voor elkaar krijgen hebben we gemerkt, maar daar kan je niet per se, uhm, fundamentele wiskunde mee doen.

26
00:04:34.160 --> 00:04:46.700
En, en er is natuurlijk ook een grote vraag van: ja leuk, het voelt een beetje als iets wat constant, uhm, ja, zoals een vogel, zoals een moedervogel dat doet, het eten terug op-opbraakt.

27
00:04:47.340 --> 00:04:55.680
Hè, er wordt een beetje belachelijk gemaakt dat taalmodellen in essentie alleen maar een echo zijn, een soort shitty echo zijn van de mensheid en soms een, uh, uh, iets minder, uh, shitty.

28
00:04:56.860 --> 00:05:08.400
Nou, dit is wat hier gedaan wordt door eigenlijk een combinatie te maken van, uhm, een taalmodel, in dit geval PaLM 2. Maar ze geven, hè, dat is een van de, uh, Google taalmodellen. Dit is pre-Gemini.

29
00:05:08.700 --> 00:05:18.720
Even voor de mensen die het nog volgen, maar Google heeft voor Gemini PaLM gemaakt, hun, uh, uh, taalmodel en we waren bij PaLM 2 aangeland. Ik weet niet zo goed wat er nu gaat gebeuren.

30
00:05:18.740 --> 00:05:23.700
Of er nog een PaLM 3 komt of dat Gemini het helemaal overneemt weet ik eigenlijk niet, maar dit is nog op basis van PaLM 2.

31
00:05:24.200 --> 00:05:32.240
Maar ze zeggen ook: in essentie kan je ieder, ieder taalmodel koppelen in dit Funsearch, function search-model. Want wat is de truc?

32
00:05:32.440 --> 00:05:46.599
Je zegt: ik wil een programma maken om bijvoorbeeld, laten we teruggaan naar aflevering twee was het volgens mij van Poki, uh, data te sorteren. Superfun. En dan zeg je: mijn idee is dat ik data wil sorteren.

33
00:05:47.280 --> 00:05:56.860
Ik geef je een omschrijving van hoe je dat kunt testen of je sorteren goed gaat. Hè, dus ik ben nu even aan het uitleggen wat je initial prompt is, want je gaat er niet, uh, koud en leeg in.

34
00:05:56.920 --> 00:06:04.680
Je gaat Funsearch gebruiken en Funsearch heeft nodig een omschrijving van wat je van plan bent en hoe je dat zou kunnen meten of dat gelukt is.

35
00:06:05.240 --> 00:06:13.544
En je geeft een zaadje mee, namelijk eenMee een rudimentaire implementatie van een sorteer algoritme. Dus je begint niet met niks.

36
00:06:13.664 --> 00:06:21.284
Een omschrijving hoe je het kan meten en een, een omschrijving hoe jij het zou implementeren. En dan zeg je tegen Fun Search: ga je gang.

37
00:06:21.454 --> 00:06:26.884
Wat er dan gebeurt is dat het taalmodel gaat allerlei implementaties maken van wat jij hebt gedaan.

38
00:06:26.924 --> 00:06:36.804
Die gaat eigenlijk evolutionair een soort van allemaal, uh, alternatieve versies prototypes maken van wat jij hebt gedaan. En wat is het verschil?

39
00:06:37.224 --> 00:06:44.984
Die worden dan gevoerd aan een evaluatie, uh, onderdeel eigenlijk en die gaat het uitvoeren en kijken: is dit wat? Hoe goed is dit eigenlijk?

40
00:06:45.004 --> 00:06:53.773
Dus dat is geen taalmodel, want taalmodellen kunnen niet programmeren, die kunnen alleen maar bluffen en sporadisch redelijk goed programmeren per ongeluk. Wat je daarna nodig hebt is iets anders.

41
00:06:53.824 --> 00:07:04.624
Een ander component die zegt: wat is dit eigenlijk, hè? Noem het een soort leraar die het werk nakijkt. Dat is geen taalmodel, dat is een ander onderdeel. Die zegt dan: dit is niks, kan je niks mee. Troep.

42
00:07:04.704 --> 00:07:15.364
Gehallucineerd. Nee. Bullshit. Maar hé, wacht, dit werkt. Het is iets. En op het moment dat hij zegt: dit werkt, het is iets. Dan voert hij dat terug naar een, een database. Dat noemen ze de function database.

43
00:07:15.464 --> 00:07:27.004
En dan zegt hij eigenlijk: hé, hier heb je, hier heb jij taalmodel. Hier heb jij iets interessants gevonden. En dan is het niet een heel, uh, uh, ja, een heel programma, maar eigenlijk een functie.

44
00:07:27.504 --> 00:07:39.304
Hé, jij hebt daar een functie gevonden en die is sneller of die kan iets wat we voorheen niet konden. Die wordt teruggevoerd aan een database met functies erin en dan begint het proces weer opnieuw.

45
00:07:39.484 --> 00:07:49.924
Dan zegt die ta, dat taalmodel zegt dan: hé, ik ga weer programma's uitvinden. Die tapt uit dat, uit dat databaseje wat hij eigenlijk op de achtergrond soort van zelf gevuld heeft, indirect.

46
00:07:50.444 --> 00:07:57.704
En zo ontstaat er een cirkeltje van een soort evolutieproces, hè, dus die, de, je, je verzint iets, je schiet 'm, maar het is niet random.

47
00:07:57.744 --> 00:08:07.604
Evolutie is in dat opzicht, ja, dat is weer een hele andere discussie, maar deels random. Maar, uh, het baseert zichzelf wel op eerder gedaan evolutiewerk, laat ik het dan zo zeggen.

48
00:08:07.684 --> 00:08:17.203
En, uh, dan gaat het taalmodelletje dus opnieuw op zoek naar nieuwe functies op basis van de functies die die al heeft uitgevonden. En wat blijkt?

49
00:08:18.164 --> 00:08:23.264
Als je dan zegt: oké, ik heb hier bijvoorbeeld, uh, ze noemen twee voorbeelden, want het is best wel een mooi artikel hoor, en ook wel

50
00:08:24.484 --> 00:08:34.264
voor zover, ik heb het door ChatGPT heen gehaald, de paper, om mij het uit te leggen, want het is ver boven mijn pet. Maar, a-, uh, ik vind dat ze eigenlijk in het blog redelijk basic uitleggen wat ze nou eigenlijk doen.

51
00:08:34.324 --> 00:08:56.833
En dan zeggen ze ook: oké, oftewel als je een taalmodel combineert met iets wat het nakijkt het werk, het beste werk selecteert, die selectie plaatst in een database en die database weer gebruikt om het initiële taalmodel te voeden, dan ontstaat er een cirkel waar je, want dat is de grote vraag, kan je dan nieuwe dingen, nieuwe dingen ontdekken?

52
00:08:56.964 --> 00:09:11.084
Kan, kunnen dan taalmodellen creatief zijn? Dat is eigenlijk het vraagstuk. Het antwoord is ja, want er zijn twee, uh, uh, ja, be-beetje basis wiskundige problemen, uh, ge, uh, opgelost of in ieder geval gevonden.

53
00:09:11.804 --> 00:09:22.304
Hè, dus ze hebben het bijvoorbeeld over cap sets. Zegt mij allemaal niet zo heel erg veel, maar in de laatste twintig jaar is er van alles, uh, uh, geprobeerd om nieuwe, uh, oplossingen en snellere oplossingen te vinden.

54
00:09:22.344 --> 00:09:33.404
En Fun Search heeft inderdaad een nieuwe weg gevonden en, dat is nog een van de belangrijkste inzichten, kan uitleggen wat dat doet. Dus nu, je ziet ook een comment van een researcher die bij die zegt:

55
00:09:34.404 --> 00:09:46.344
aan de ene, stap één is: het is gaaf om nieuwe fundamentele, uh, wiskunde te ontdekken dankzij een combinatie van taalmodellen en iets wat het taalmodel constant nakijkt en verbetert.

56
00:09:46.354 --> 00:10:01.404
Dat is een leuke stap, maar nog interessanter eigenlijk is dat het taalmodel ook kan uitleggen hoe het tot die conclusie gekomen is, zodat je als wiskundige die dat leest kan leren en kan meekijken en denkt: ja, alsof je een hele slimme collega erbij hebt op je werk.

57
00:10:02.124 --> 00:10:12.544
Waarom dit interessant is? Omdat, uh, het is interessant dat wij het hier over hebben gehad en nu staat het hier gewoon, uh, open en bloot op de website van, uh, Google. Uh, dat je het op deze manier kan doen.

58
00:10:12.604 --> 00:10:22.544
Dit idee trouwens, uh, van: zullen we taalmodellen gebruiken om, uh, ja, eigenlijk dingen te fantaseren en die fantasieën dan even concreet te testen en alleen eruit te halen wat, wat is.

59
00:10:23.064 --> 00:10:28.164
Krenten uit de pap en dan opnieuw beginnen. Ja. Dat was, is natuurlijk niet een idee van Google of zo.

60
00:10:28.224 --> 00:10:36.684
Dat is in de, ik weet niet wanneer, maar een hele tijd geleden al binnen de academische, uh, geda-, binnen het academisch gedachtegoed beschreven van: zullen we het op deze manier doen?

61
00:10:37.364 --> 00:10:49.184
Wat zij hier laten zien is: het kan, het werkt en het levert wat op. Hé, en kan je nou taalmodellen ook met taalmodellen laten werken? Dus dat een taalmodel een taalmodel corrigeert?

62
00:10:49.224 --> 00:10:53.214
Ja, dat is een beetje waar ik net ook, dat was een beetje de foreshadowing, maar, uhm,

63
00:10:54.204 --> 00:11:02.724
en dat sluit heel mooi aan op, op, uh, iets anders wat gebeurd is, is dat ByteDance, dat is de maker van, uh, TikTok als ik het goed zeg. Zeg ik dat goed, of? Zeker.

64
00:11:02.944 --> 00:11:13.824
Uhm, ja, ik denk nog, ik ben nog zo oud dat ik dan musical.ly denk, maar dat is wat TikTok was. Even die flex, hè. Hé, toen TikTok nog musical.ly was, maar. Mhmm. Daar zat jij op. Klinkt heel gaaf.

65
00:11:13.914 --> 00:11:23.024
[lacht] Nee, daar wist ik van. Klinkt beter. Oké. Uhm. Ja. De, wat ByteDance aan het doen is, is, uh, was, want nu lukt het niet meer.

66
00:11:23.564 --> 00:11:33.544
Of ze moeten een ander IP-adres hebben gepakt of een ander account, maar ze waren eigenlijk hun eigen taalmodel aan het, uh, trainen op basis van, uh, GPT-4. Uhm, wa-, voor zover ik begrijp

67
00:11:34.544 --> 00:11:44.524
wat je kunt doen is, uh, je hebt een dataset, daar begin je mee. Gigantische dataset. Hopelijk heeft die dataset een beetje kwaliteit, hè, dus dat betekent dat hij goed gelabeld is, dat er niet te veel ruis in zit.

68
00:11:45.124 --> 00:11:55.044
En dan ga jij met de, uh, kennis die openbaar is, hè, academisch en in de open source wereld ga je een eigen taalmodel trainen. Dat heeft bijvoorbeeld, uh, Mi-Mistral ook gedaan in Frankrijk.

69
00:11:56.004 --> 00:12:07.364
En uiteindelijk, uhm, wat blijkt is dat een van de stappen die die taalmodellen bij OpenAI zo goed gemaakt heeft is eigenlijk het, uh, ja, voor mij heet dat reinforcement. Of, uh, RF.

70
00:12:07.904 --> 00:12:18.112
Nou ja, het is in ieder gevalReinforcement gebaseerd op human feedback. Dus wat je eigenlijk zegt is we gaan mensen erbij betrekken en die gaan scores geven en die. Je hebt ook red teaming, dus een red team.

71
00:12:18.132 --> 00:12:22.692
Die gaat dan zorgen dat dat ding geen enge dingen kan vertellen over hoe je bommen moet bouwen en zo.

72
00:12:22.732 --> 00:12:34.312
Nou, zo heb je allemaal extra stappen die je daarna doet om als het ware het geheel nog even die taart die komt uit de uit de oven, maar daarna gaat er nog even iemand met een mesje langs om het allemaal netjes te maken als het ware.

73
00:12:34.472 --> 00:12:46.451
Een mens. De machine maakt het en de mens gaat het nog perfectioneren. Dat die dat die stap ook gedaan kan worden door een ander taalmodel. Dus wat je dan eigenlijk krijgt, is dat je een taalmodel traint.

74
00:12:46.512 --> 00:12:53.092
Daar komt iets vrij, er komt een ruwe diamant uit en dat slijpen laat je weer doen door een bekend beter taalmodel.

75
00:12:54.292 --> 00:13:06.372
En op die manier kan je dus eigenlijk toch zorgen dat je op de op de schouders van je concurrenten kan staan. Of ze dat nou willen of niet. Nou, nu heeft OpenAI opgenomen in hun algemene voorwaarden dat het niet mag.

76
00:13:06.832 --> 00:13:15.532
Dus die hebben nu het account. Maar wat? Wat voor iets deden ze dan? Dus dan, dan voerden ze iets in ChatGPT en dan kregen ze iets terug. En goeie, want ik heb ook zitten denken van hoe hoe doe je dit dan?

77
00:13:15.552 --> 00:13:24.992
Maar volgens mij is het ongeveer zoals ik net beschreef. Dus wat je normaal zou voeren aan een team mensen. Dus je hebt een taalmodel getraind. Dat heb je gedaan, zeg het clean room.

78
00:13:25.152 --> 00:13:35.092
Dus dat betekent dat je nog geen contact hebt gehad met wat dan ook van OpenAI. Je hebt een dataset, je hebt een theorie en samen creëer. Daarmee creëer je uiteindelijk een eigen taalmodel.

79
00:13:35.532 --> 00:13:45.912
En dan ga je zeggen dat taalmodel moet eigenlijk nog gefinetuned worden. En die finetuning laat ik doen door een bestaand taalmodel. En. Want dit is wel superinteressant.

80
00:13:47.032 --> 00:13:59.212
Dan koppelen we even alle onderwerpen die ik op een lijstje had gezet aan vandaag aan elkaar. Want Phi2, een kleiner taalmodel gelanceerd door Microsoft. 2.2 miljard parameters uit mijn hoofd.

81
00:13:59.452 --> 00:14:10.272
Even voor het beeld van de luisteraar bijvoorbeeld de Mistral die nu uitgekomen is 7 miljard. Mistral. Ik Ik had zat laatst een videootje te kijken, toen zei ze het zelf niet zo. Dus ik weet het niet, maar we houden vol.

82
00:14:10.292 --> 00:14:25.312
Moet. En 70 miljard voor Llama2. Ja dus Phi is een heel klein. Echt hartstikke klein en draait gewoon op je mobiel. Inmiddels stroomt de App Store ook op iOS. Apple is het tot nu toe allemaal gewoon aan het goedkeuren.

83
00:14:25.372 --> 00:14:35.592
Ik weet niet hoe lang dat nog duurt. Stroomt helemaal vol met draaien. Lokale taalmodel op je iPhone appjes. Super leuk! Ik ga geen tip geven want ik vond ze allemaal nog meh, maar ga ze zelf eens opzoeken zou ik zeggen.

84
00:14:35.612 --> 00:14:51.772
Of pak wat van build hem zelf en zet hem erop via een omweggetje. Maar overleef in de Android wereld en kan dit allemaal gewoon zonder gedoe. 7 miljard die taalmodellen van 7 miljard zoals Mistral, Mistral, Mistral en

85
00:14:52.792 --> 00:15:06.132
de de andere modellen, de kleinere llama's die kunnen draaien op een mobiel. Phi2 2.2 miljard. Veel kleiner. Outperformt op veel benchmarks. ChatGPT drie en half, terwijl het een heel klein modelletje is.

86
00:15:06.192 --> 00:15:13.132
Wat heeft Microsoft gedaan? Twee dingen. Twee belangrijke dingen. Ze hebben nog veel meer dingen gedaan, maar dit zijn twee belangrijke.

87
00:15:13.172 --> 00:15:28.272
Ze trainen niet op de grote dataset waar Reddit bijvoorbeeld in zit en het hele web. ChatGPT is famously getraind op heel groot deel van het internet en boeken en nog van alles. All human.

88
00:15:28.332 --> 00:15:33.872
Ja, zoveel ze konden crawlen zeg maar. En dat zijn dan. En de rechtszaken moeten nog afgerond worden.

89
00:15:33.912 --> 00:15:44.792
Wat er allemaal eigenlijk in zit, wat niet mag en wat we nog terug kunnen vinden, wat daar van overgebleven is in de set. Maar bijvoorbeeld Common Crawl, dat is een open source dataset die iedereen mag gebruiken.

90
00:15:45.332 --> 00:15:55.072
Dat zit ook helemaal vol met nou ja, alles wat publiekelijk op internet te crawlen was. Wat heeft Microsoft gedaan? Die zegt: uhu, textbooks are all you need.

91
00:15:55.212 --> 00:16:09.272
Dat is volgens mij ook de titel van een van de research papers. Die hebben gezegd nee, nee, nee nee, ga nou niet die weet je wel. Less is more. Pak nou gewoon hele hoge kwaliteit content. Ga gewoon boeken.

92
00:16:09.352 --> 00:16:16.482
De boeken zijn geredigeerd. Boeken gaan over bepaalde onderwerpen, zijn geschreven met een. Niet ieder boek is even goed, maar je kan natuurlijk zeggen we pakken

93
00:16:17.732 --> 00:16:29.152
boeken die gebruikt worden op universiteiten om mensen wat te leren. Dus de O'Reilly textbooks bijvoorbeeld als het gaat om computer science. Dat is het enige wat ze hebben gepakt. Ja, ze noemen het.

94
00:16:29.252 --> 00:16:40.192
Ik weet niet wat er binnen de categorie textbooks valt in. Ja, volgens mij wel. Is dat wat Amerikanen zeggen als ze schoolboek educatieve boeken bedoelen? Ze hebben in ieder geval. Dus ik denk inderdaad laten we.

95
00:16:40.412 --> 00:16:49.212
Laten we even ervan uitgaan educatieve boeken, dus die moeten toch wel aan een bepaald aan een bepaalde maatstaf voldoen. Daar ga je op trainen.

96
00:16:49.552 --> 00:17:00.392
En dan, dit staat ook gewoon letterlijk in hun paper, pak je GPT4 om te finetunen. Maar hoe dan? Ja, jij wil nog. Ga je dan vragen. Ik heb ook gedacht wat een dure.

97
00:17:00.422 --> 00:17:10.752
Misschien dat ze, want dat finetunen is volgens mij is dat je iemand in Nigeria twee opties geeft en dat je dan zegt welke van. Stel de vraag is de lucht is blauw of welke kleur is de lucht?

98
00:17:11.212 --> 00:17:23.832
En dan is optie A is blauw en optie B is rood. Dat dan de mens zegt optie A blauw. En dan misschien niet zozeer op feiten gebaseerd, maar wat is een betere uitleg? Dus ik schrijf een slecht voorbeeld.

99
00:17:23.912 --> 00:17:30.372
Je kan beter vragen weet ik veel. Vertel me hoe hoe de dampkring werkt en dat dan.

100
00:17:30.692 --> 00:17:39.832
Beide geven een feitelijk juist verhaaltje, maar de mens kan dan aangeven wat een duidelijker duidelijker verhaal is, want dat is subjectief en dat is iets wat dan door mensen gefinetuned wordt.

101
00:17:40.292 --> 00:17:53.692
Misschien dat het zo werkt, dus dat dat, dat dat model van Microsoft aan een andere divisie van Microsoft vraagt. Welke uitleg is beter hierbij? En dat dat dat GPT4 gewoon best wel aardig kan zeggen.

102
00:17:54.652 --> 00:18:05.711
Dit is een betere uitleg voor mensen en dan weet het kleinere model van Microsoft weet hoe die iets moet uitleggen. Ja, het lijkt zo lijkt het nu op in ieder geval dat op het moment dat je dus veel

103
00:18:07.072 --> 00:18:13.332
schonere en hogere kwaliteit data voert aan in essentie dezelfde theorie rondom taalmodellen.

104
00:18:13.812 --> 00:18:25.522
Dat er dan een heel klein super capabel taal modelletje uitkomt.Die uhm en er is heel veel discussie op het moment over die benchmarks. Benchmarks zijn ook bijvoorbeeld in de gaming industrie zie je dit ook dat je

105
00:18:26.492 --> 00:18:42.252
en nou nog mooier Dieselgate. Dat je de milieu benchmarks die Volkswagen en alle andere automakers moesten halen die werden getest op basis van uitstoot uit de uitlaat van een auto bij bepaalde snelheden.

106
00:18:42.292 --> 00:18:54.352
En die test, die was bekend hoe die test ging en er werd zo'n test. Een auto werd op een testbank gereden en die lieten ze dan. Dit zijn willekeurige voorbeelden, maar 1.00u, honderd kilometer per uur rijden en dan

107
00:18:55.352 --> 00:19:03.052
starten, stoppen, koud starten, noem maar op. En dan in die uitlaat meet je dan de uitstoot en dat moest dan onder een bepaalde waarde zijn. Wat heeft de Volkswagen groep gedaan?

108
00:19:03.612 --> 00:19:13.212
Die wisten die test en die had op een gegeven moment ingebouwd in die chip van die auto. Als jij merkt dat je drie keer gestart wordt, dan zit jij in een testprocedure en dan knijp je vlug die uitlaat dicht.

109
00:19:13.392 --> 00:19:22.952
Dit is dieselgate. Het is gewoon te bizar dat dit gebeurd is. Ja, het is echt schandalig. Echt echt heel naar. Blijft grappig. Maar en uiteindelijk het staat in code. Je kan er gewoon niet omheen.

110
00:19:22.992 --> 00:19:32.272
Je kan als engineer niet uitleggen wat doet dat regeltje code daar? Wat is dat? Weet je wel. En dan moet je gaan zoeken wie hem heeft geschreven en wie daar weer de opdracht voor gegeven heeft. Dat is de hele dieselgate.

111
00:19:32.372 --> 00:19:45.091
In de gaming wereld van de computergames heb je ook allemaal benchmarks. Wat is het? 3D Mark bijvoorbeeld. Hele bekende. Daar komt uiteindelijk gewoon een score uit. Of Geekbench is ook zo'n hele grote. Nou.

112
00:19:45.132 --> 00:19:53.392
Maar wat meet dat? De smoothness van. In het geval van 3D Mark ga je dan echt letterlijk door een aantal korte game achtige scenes heen. Je kan het ook meekijken.

113
00:19:53.452 --> 00:20:00.232
Dat vond ik toen ik wat jonger was ook heel vaak heel leuk. En het is ook heel leuk om een computer als je hem hebt gebouwd een beetje te stresstesten. Blijft hij het doen? Weet je wel.

114
00:20:00.252 --> 00:20:09.092
Dat draai je hem tien keer of zo en daarin. Maar grafisch grafisch heel ingewikkelde dingen laten produceren door die computer en dan kijken hoe goed hij dat kan. En dat levert.

115
00:20:09.212 --> 00:20:19.672
Het liefst een beetje verschillende soort games, dus de een is meer heavy op 3D, de andere is meer een RTS en noem maar op. De ene heeft hele zware dingen, want honderd units in beeld en de andere is juist een race game.

116
00:20:20.272 --> 00:20:21.192
En als je dan.

117
00:20:21.232 --> 00:20:32.332
Heb je allemaal sub scores, die tel je bij elkaar op en er komt dan uiteindelijk, want daar wil je naartoe één getal en dan kun jij zeggen mijn computer haalt tienduizend op 3D Mark en dan ook nog de 3D mark van dat jaar.

118
00:20:32.372 --> 00:20:44.492
Dus zeg je 3D Mark 2017 destijds. Wat gaat natuurlijk die spel maken? Of wat gaat? Sorry, wat gaan de makers van grafische kaarten doen? Wat gaan de makers van drivers voor grafische kaarten doen die gaan herkennen?

119
00:20:44.832 --> 00:20:52.972
Hey, hij draait 3D Mark, We gaan even iets meer voltage sturen naar die CPU. We gaan heel even buiten de mogelijkheden van de kaart.

120
00:20:53.012 --> 00:20:58.932
Gaan we 10 minuten lang gas geven wat hij eigenlijk nooit 1.00u kan volhouden, maar wel een benchmark lang.

121
00:20:59.252 --> 00:21:13.352
Nou, ook hier is weer een heel verleden aan schandalen, want je kan die drivers natuurlijk ook gaan openmaken en dan zien als de titel van de window is 3D Mark dan tien tien watt extra. Ik zeg het te veel suf.

122
00:21:13.392 --> 00:21:21.112
Dus die dieselgate is ook in die GPU wereld gebeurd. Wat gebeurt er natuurlijk in de taalmodel wereld?

123
00:21:21.172 --> 00:21:27.852
En dat is is een beetje slecht van mij om dat te vergelijken met dieselgate, want het was echt schandalige corruptie gewoon.

124
00:21:27.892 --> 00:21:34.432
Bij die 3D kaarten was het dat ze zeiden nee, we hebben gewoon een performance profiel en die gaat aan bij 3D Mark grijs gebied.

125
00:21:35.452 --> 00:21:42.692
Bij taalmodel is het zo dat je natuurlijk uiteindelijk als je alleen maar naar benchmarks kijkt, keihard gaat optimaliseren om die scores omhoog te krijgen.

126
00:21:42.732 --> 00:21:51.432
Het is ook een beetje een wedstrijd tussen de bedrijven, maar ook tussen de open-source modellen en vice versa. En wat is het nadeel daarvan is dat een.

127
00:21:51.452 --> 00:22:01.032
Je kunt een heel veel hoge scores halen op al die tests, maar uiteindelijk nog best wel voor een eindgebruiker een mens, in dit geval een shitty interface of een shitty experience hebben.

128
00:22:01.072 --> 00:22:11.172
Dus dat wil ik er wel even bij gezegd hebben. Tegelijkertijd is dit het eeuwenoude verhaal van van benchmarks. Het is dat Johan Cruijff zou zeggen je kan de wedstrijd winnen met lelijk voetbal.

129
00:22:11.632 --> 00:22:18.712
En wordt er nog gevoetbald als iedereen heel tijd op de grond gaat liggen en de bal uitschiet, maar je hebt wel gewonnen. Nou, die taalmodellen kunnen op een bepaalde manier ook

130
00:22:19.672 --> 00:22:28.412
minder goed presteren, terwijl ze eigenlijk heel goed presteren op benchmarks. Heel lang verhaal om duidelijk te maken dat de score niet alles is. Nee.

131
00:22:28.472 --> 00:22:38.252
Ja god, het is zoals leren voor de Cito test en dan precies hele goede antwoorden kunnen geven op het type vragen die tijdens de Cito test gesteld worden, maar nog steeds niks van taal en rekenen kunnen snappen.

132
00:22:38.352 --> 00:22:50.542
Omdat je. Omdat je de basis. Jouw voorbeeld in twee zinnen is sterker dan wat ik met Volkswagen heb geprobeerd. Ja, volg mijn Twitter. Ja, hij houdt het kort. Maar.

133
00:22:50.542 --> 00:23:07.032
Maar oké, dus Microsoft heeft dat knap gedaan met met Phi2. En is dit omdat het gewoon fijn is om er achter te komen dat kleine modellen goed werken en zodat zodat het lokaal kan draaien en en het energie efficiënter is.

134
00:23:07.072 --> 00:23:15.212
Nou. Of de bestaande compute ingezet kan worden voor voor efficiëntere doeleinden. Wat interessant is als we nog even evolutionair kijken.

135
00:23:15.372 --> 00:23:19.052
Dus we hadden het eerder over die fun search en dat daar iets evolutionairs in zit.

136
00:23:19.192 --> 00:23:32.052
Dus er gaat iets op zoek in een bepaalde ruimte van van, van randomness, maar niet volledig random, want dat wilde ik nog even toevoegen. Heel vaak wordt het vergeleken met brute force methods. En dat bedoel je.

137
00:23:32.772 --> 00:23:41.652
Als in gewoon gewoon, je gaat maar rammen en je probeert weer iets nieuws en gewoon heel dom rammen. En we zien wel of er een keer een gedicht uit komt, zeg maar. En dan gewoon rammen.

138
00:23:41.972 --> 00:23:53.112
Nou daar, dat is de benchmark zeg maar. En nu. Want je hebt eigenlijk. Vaak heb je possibility spaces. Dus dat is de ruimte van mogelijkheid. En eigenlijk wil je natuurlijk. Je wil nieuwe dingen ontdekken

139
00:23:54.732 --> 00:24:03.882
terwijl je die ruimte van van wat je gaat ontdekken, zeg maar of zeg maar de de grot die je gaat onderzoeken wil je. Wil je niet te groot maken, want dan wordt het.

140
00:24:03.892 --> 00:24:08.851
Dan wordt een ultieme, onbeperkte search is brute force. Ga gewoon klap, klap er gewoon op.

141
00:24:09.432 --> 00:24:19.812
Die wil je zo klein mogelijk maken zodat hij zo min mogelijk compute vereist en tijd, maar wel de mogelijkheid heeft om daarbinnen het antwoord te vinden. Dat is voor mij de uitdaging van dit soort.

142
00:24:19.892 --> 00:24:41.576
En dit is ook wat evolutie heeft opgelost op een bepaalde manier in het universum, wat te bizar is.Ehm, wat je nu ziet, eh, om terug te komen op Phi twee, is dat, kijk, in evolutie, ik maak even een paar sprongen, maar de, de grootte van het hoofd van de mens, van jouw hoofd, van mijn hoofd is binnen een bepaalde bandbreedte.

143
00:24:42.155 --> 00:24:48.476
Want uiteindelijk moet je ook geboren kunnen worden. Dat is even heel bizar, maar als jouw hoofd natuurlijk veels te groot is, dan kan je eigenlijk niet meer geboren worden.

144
00:24:48.516 --> 00:24:59.836
Want je moet er wel, ja, even heel plat gezegd, je moet eruit kunnen. Nou, daar, en dus krijg je allemaal balansen tussen: hoe lang blijf je erin? Hè, een kangoeroe die zorgt ervoor, nou, dan kruip je er alvast uit.

145
00:24:59.876 --> 00:25:08.356
Ga je nog even langer in een zak zitten aan de buitenkant. Er zijn allemaal oplossingen voor ontstaan, gevonden door dat evolutionair algoritme, noem ik het maar even koud. Uhm,

146
00:25:09.316 --> 00:25:20.056
wat we nu zien is een soortgelijke, hmmm, hoe groot is een taalmod-- hoe groot moet een taalmodel eigenlijk zijn om, om in de basis zinvol of, of waardevol te zijn?

147
00:25:20.576 --> 00:25:35.936
Hè, eh, GPT-4 is, ik roep even uit mijn hoofd, maar volgens mij zit hij al op een, eh, eh, waar kom je na een miljard? Triljard. Volgens mij zitten die op een triljard, eh, parameters, eh, inmiddels met GPT-4.

148
00:25:36.056 --> 00:25:52.016
Een schatting, want het is een black box. We weten het niet. Ehm, en volgens mij zit GPT 3,5 op de 120 of zo, eh, dus een, een, een, een tienvoud minder of een tiende. Daarmee zou je kunnen zeggen: groter is beter.

149
00:25:52.076 --> 00:25:53.796
Nou, nu begint te blijken: nee, wacht even.

150
00:25:53.836 --> 00:26:13.636
Als we die data die we erin voeren eigenlijk veel hogere kwaliteit hebben en we gaan ook aan de fundamentele algoritme dingen veranderen, dan kunnen we eigenlijk met een 7 miljard model en zelfs met een 2.2 miljard model eigenlijk al hele zinvolle, zinvol vanuit soort pragmatische zin, hè, heeft het waarde voor de gebruiker, kan je er wat mee, gebe-begint iets interessants te ontstaan.

151
00:26:14.276 --> 00:26:22.916
En waar we nu denken een beetje, dat is volgens mij wat Google goed doorheeft met hun Gemini, hè. Ze zeggen Gemini Nano, Gemini Pro en Gemini Ultra.

152
00:26:24.096 --> 00:26:29.876
Hè, dus we hebben Nano voor de telefoon, Pro voor algemeen gebruik en Ultra a-als je de top wil. Dan

153
00:26:31.036 --> 00:26:44.296
zie je ook al ontstaan van: ja, net als in evolutie, een mammoet is heel goed in, eh, het warm houden terwijl het superkoud is buiten en, eh, heel oud worden. Maar ja, een, eh, eh, wat is het? Een zilvervisje of zo.

154
00:26:44.396 --> 00:26:47.736
Die kan een nucleaire aanval overleven en die rent overal lekker heel klein rond.

155
00:26:48.216 --> 00:27:01.056
Dus in, ik denk in dat opzicht dat we nu een beetje gaan komen naar, eh, verschillende grote taalmodellen en ook wel een soort van middenweg van oké, eh, rond de 10 miljoen, 10 miljard parameters.

156
00:27:01.436 --> 00:27:07.676
Hè, dat kan een beetje draaien op een recente smartphone. Getraind met, eh, schone kwalitatieve data,

157
00:27:08.576 --> 00:27:17.776
eh, zou ons in essentie de komende jaren moeten kunnen brengen naar GPT 4,5, misschien zelfs achtige kwaliteit op een recente smartphone.

158
00:27:18.456 --> 00:27:27.756
En dan denk ik dat voor de me-, dat, dat dan, dat tien keer zo groot maken enkel interessant is in een datacentrum voor specifieke, eh, wetenschappelijke doeleinden.

159
00:27:27.765 --> 00:27:36.776
En voor die andere 98% van doelen, namelijk local LLM's op een, eh, smartphone, is zo'n taalmodel eigenlijk prima. Ik vind het wel interessant.

160
00:27:36.816 --> 00:27:47.896
Ja, want waar werken we eigenlijk naartoe als het gaat over taalmodellen draaien op smartphones? Is dan het, is dan het, de doels-, want de doelstelling is niet per se betere, eh, tekstjes schrijven denk ik.

161
00:27:48.036 --> 00:28:00.036
Want dat is, ja, marginaal, eh, verbetering. Weet je, het is allemaal leuk dat we straks tooltjes hebben waarin we, weet ik veel, dat je het begin schrijft van een e-mail, dat ie dan de e-mail kan afschrijven in je OS.

162
00:28:00.196 --> 00:28:05.356
Of, uhm, ja, een soort van tekst genereren, dat is maar heel beperkt de functie.

163
00:28:05.436 --> 00:28:20.116
Volgens mij is de, de, de echte soort van killer app waar we naartoe werken is het moment dat, eh, je geen apps meer nodig hebt, dus dat, dat het systeem zelf apps maakt op basis van je vraag.

164
00:28:21.076 --> 00:28:34.696
Of, uhm, uhm, eigenlijk tegen bestaande apps gaat aanpraten, misschien nog als, als stap daarvoor. Ik kan me voorstellen dat dat de, het, het, het moment is, of het het ding is waar we naartoe aan het werken zijn.

165
00:28:34.996 --> 00:28:44.116
Ja, ik denk, ik denk de belofte van, eh, Siri en Google Assistant waargemaakt. Ja, dus niet alleen zeggen: hoe hoog is de Eiffeltoren?

166
00:28:44.736 --> 00:29:07.616
En niet alleen: maak een plaatje van de Eiffeltoren, maar, uhm, maak een app waar ik, eh, waar je, waar je eerst voor mij een, waarbij je, maak een app waarbij je reserveringen doet, eh, bij, eh, restaurants, zowel in de ochtend, middag en avond als ik naar Parijs ga en ik wil een rondje rijden rondom de Eiffeltoren met een scooter.

167
00:29:07.896 --> 00:29:19.136
Reserveer hem alvast voor me en maak een app voor me waarbij de GPS wordt bijgehouden, zodat hij ziet waar ik ben en, eh, dat ik, eh, eh, mijn route op mijn scherm krijg of zo.

168
00:29:19.176 --> 00:29:27.396
Dat is een app die niet bestaat en die, eh, die dat ding met basis, op basis van systeemfuncties, dus, eh, je GPS gebruiken.

169
00:29:27.456 --> 00:29:34.756
Of dat hij de, de, de, de scooter app, eh, onder, onder, onder water aanspreekt om de, om die, eh, die step te kunnen reserveren.

170
00:29:35.176 --> 00:29:44.786
En hij gebruikt de data uit het taalmodel om te bedenken wat voor restaurants hij moet gaan reserveren voor je. En hij gebruikt een agent om, eh, bij die restaurants te reserveren op de websites van die restaurants.

171
00:29:44.816 --> 00:29:52.336
Dat zijn allemaal dingen die op de achtergrond gebeuren. En dan vraa-, dan doe je een expliciet verzoek om een user interface die een route, eh, op je scherm, eh, tovert.

172
00:29:52.676 --> 00:30:06.316
Dat is nu iets wat niet kan en dat als computers zelf kunnen gaan programmeren, dan kan dat wel. Ik neem aan dat dat is waar we naartoe werken. Ja, ik denk, ik denk dat, uhm, bijvoorbeeld Salesforce en, eh, SAP-achtige,

173
00:30:07.476 --> 00:30:21.316
eh, supergrote ultrabedrijven die er zijn, die bij ProRail zorgen dat er dashboards zijn om te zien hoe het staat met op dat moment de key point indicators van het Nederlandse treinnet.

174
00:30:22.356 --> 00:30:33.360
Die, daar wordt, eh, een hoop gewerkt aan bepaalde dashboards en dan het liefst dat jij een eigen dashboard, een visueelDashboard kunt maken voor jouw functie binnen een bedrijf.

175
00:30:33.400 --> 00:30:38.200
Dat je zegt: ik heb deze, noem, zie het als widgets, uh, en die, en die widgets zijn die getallen.

176
00:30:38.240 --> 00:30:46.920
Er zit ook een stukje formule achter dat je zegt: ik wil, als ik die drie KPI's weer bij elkaar stop, kan ik daar weer een soort getal uit maken. Ik denk, hè, wat jij nu beschrijft.

177
00:30:47.580 --> 00:30:56.460
Ik denk een soort combinatie van, uh, workflow zoals het op Apple, uh, op iOS al is, hè, dus, uh, waar je een soort if this then that-achtige Zapier dingen kunt bouwen,

178
00:30:57.500 --> 00:31:06.580
uh, maar dan wil jij, jij gaat ze dan niet meer bouwen. Jij hebt gewoon een doel. Jij zegt: ik ga naar Frankrijk, drie weken en, uh, maak alvast even wat dingen voor me klaar die daarbij horen.

179
00:31:06.640 --> 00:31:13.060
En dat, dat kan je software noemen en dat zal zich visueel uiten als dashboards en stukjes tekst die naar jou uitgesproken worden.

180
00:31:13.180 --> 00:31:23.820
Uh, dan kan je zeggen: ik, vertel het me aan in een minuut 's ochtends of laat me maar zien op een cool, uh, visualized display 's ochtends als ik mijn telefoon aanzet en inderdaad op de achtergrond met de juiste apps praten.

181
00:31:23.860 --> 00:31:37.160
Want, uhm, uiteindelijk, ja, zeggen: joh, ik heb volgens mij, of nee, ja, Wytse, je hebt een hele drukke agenda deze week. Ik wil hem graag voor je herstructureren. Uh, dit is mijn, uh, voorstel.

182
00:31:37.310 --> 00:31:41.540
Uh, zeg maar ja, human in the loop, hè, ik hoor het graag. Zeg je: ja, is goed en dan gaan alle mails eruit.

183
00:31:41.620 --> 00:31:48.500
Wordt er overleg gepleegd, waarschijnlijk met jouw AI, [lacht] by the way, hè, en dan, uh, wordt daar een nieuwe agenda, uh, gestructureerd.

184
00:31:48.780 --> 00:31:58.380
Op dat level en zonder dat daar dan, hè, waar we het eerder over ge-hebben gehad eerst allemaal API's gemaakt worden, moeten worden door de app ontwikkelaars. Nee, joh, dat ding gaat gewoon lekker klikken. Boeien.

185
00:31:58.410 --> 00:32:01.540
Tappen. Fake tabs, hè, want die kent, ziet jouw scherm.

186
00:32:01.960 --> 00:32:20.220
Maar kan, kan een, kan een taalmodel onderwe-- op dit moment in de tijd met GPT-4, is dat model zelf goed genoeg om dit soort agents te maken die onder, dan heb ik het niet over het maken van apps, maar over het zelf navigeren door websites en apps- Ja, dit kan zeker.

187
00:32:20.380 --> 00:32:30.580
Zonder dat jij het ziet, uh, allerlei dingen voor je regelt. Dit kan echt? GPT-4V. Uh, we hebben het eerder gehad over een research paper waarin dit getest is, uh, dus dan toon, die toont een screenshot.

188
00:32:30.980 --> 00:32:38.820
Ja, trouwens, er zijn ook hele mooie voorbeelden van, iemand zegt dan bijvoorbeeld, uh: ik wil een, uh, uh, een nieuwe fiets kopen, dit is mijn budget.

189
00:32:38.880 --> 00:32:49.140
En dan zeg je, druk je op enter en dan gaat Chro-- Google Chrome open en alles gebeurt dan. Dit is er, en goed ook. Ja. Ja, maar aan elkaar geplakt met ta-tape en ducttape en zo. Ja. Nee.

190
00:32:49.180 --> 00:32:59.480
Oké, maar, maar het werkt en, en dit is, ik zie dit een beetje als een soort van fase voor, uh, het moment dat die telefoon zelf eigen apps kan gaan maken.

191
00:32:59.880 --> 00:33:06.700
Want ik vind dit, want je, jij vergelijkt nu met widgets en dashboards, maar ik zie het toch wel fundamenteler als in, uhm,

192
00:33:08.020 --> 00:33:28.920
ja, het is een beetje, ik moet nu onder spot een voorbeeld verzinnen, maar ik, ik, als wij eenmaal aannemen dat een kom-- dat onze telefoons werkelijk alles op het scherm kan toveren, uh, wat wij in ons hoofd hebben, en we zijn niet meer beperkt door het concept: je opent een app en die app heeft nou eenmaal bepaalde functies en een bepaalde vormgeving en dat is, uh, wat je, wat je voor je ziet.

193
00:33:29.310 --> 00:33:42.860
Dan opent zich een heel, hele bak aan nieuwe, nieuwe mogelijkheden en ik ga ervan uit dat dat nog niet kan, dat het pro-, het, het, uhm, het, het taalmodel is nog niet goed genoeg in programmeren dat hij daadwerkelijk zelf apps kan maken.

194
00:33:42.980 --> 00:33:51.000
Nou, je, wat je nu wel ziet is, uhm, en dat is vaak wel een combinatie van verschillende, te-technieken, dus je krijgt dan weer een soort AI-ensemble.

195
00:33:51.320 --> 00:34:00.300
Dus ergens is wel een taalmodel, waarschijnlijk het hart van de operatie is een taalmodel, maar dat taalmodel roept om zich heen van alles aan, hè.

196
00:34:00.420 --> 00:34:10.080
Dus een, een, een ander model wat veel beter is in, uh, programmeren of andere, uh, machine learning algoritmen die niet taalmodellen zijn, maar wel heel specifiek goed zijn in iets.

197
00:34:10.480 --> 00:34:21.440
Dit zie je steeds als een soort groepje die samenwerkt in een multidisciplinair team en dan krijg je bijvoorbeeld dingen als, uh, dat is, dat heet, even kijken of het V0, of, is dat V0? Denk het wel, hè.

198
00:34:22.120 --> 00:34:36.180
Ja, V0 van Vercel. Dat is, dat is een, een, een website, V0.dev en dan staat alleen maar een search box à la Google en dan typ je gewoon in: ik wil een portfoliosite voor mijn kunstgalerij. Je drukt op enter.

199
00:34:36.320 --> 00:34:43.560
Bam, daar is die site. Uh, dus zie het als een, uh, Framer/Webflow, uh, met een AI-saus eroverheen.

200
00:34:43.820 --> 00:34:50.920
Dit zijn dan nog websites, maar dan is natuurlijk de stap naar een app, hè, want jij, jij vraagt om een app, is dan niet zo heel groot, zou ik zeggen.

201
00:34:51.380 --> 00:35:03.220
Oké, maar deze, deze dienst maakt een user interface v-voor een webs-, voor een website. Hij maakt een website voor je, dus hij schrijft de code en, en, en bedenkt de, de vormgeving. Ja, precies. Oh wauw.

202
00:35:03.260 --> 00:35:07.480
Oké, nou ja, dat, en dan dat het ook daadwerkelijk functioneel wordt.

203
00:35:07.580 --> 00:35:17.260
Dus dat ie, dat ie ook nog eens bedenkt: oké, er moet een database komen en, uh, weet ik veel, uh, iemand moet, uh, hij moet ook een webwinkel kunnen bouwen. Zeker.

204
00:35:18.080 --> 00:35:25.800
Niet alleen maar het frontje van de webwinkel, maar de webwinkel moet ook kunnen werken. Ik neem aan dat dat nog niet kan. Uh, niet dat ik weet inderdaad. Shopify bestaat nog.

205
00:35:25.860 --> 00:35:34.240
Ja, en ik, maar, en dan, en dan, je krijgt natuurlijk een beetje wat, uh, wel vaker gebeurt, hè, is dat we dan, je, want je, je gaat bijna richting een soort everything app nu.

206
00:35:34.280 --> 00:35:39.480
Daarmee bedoel ik niet dat jij zegt: een app waar alles in één app zit, maar een soort van app waarmee je alles kan maken.

207
00:35:40.140 --> 00:35:51.320
Waarschijnlijk is dit iets wat Shopify gaat doen en dan heb je Shop-, dan is Shopify heel goed in het maken van shops met AI. Hè, dus dat je toch nog wel disciplines hebt en een soort expertise.

208
00:35:51.380 --> 00:35:59.540
Ja, ja, dat geloof ik ook. Niet één, uh, superserie die, die alles voor je kan maken of zo. Want, uh. Ze zeggen altijd: je kunt maar op twee manieren geld verdienen.

209
00:35:59.600 --> 00:36:02.380
Dat is door dingen te bundelen of door dingen te, uh, ontbundelen. Ja.

210
00:36:02.400 --> 00:36:14.520
En, en de neiging is inderdaad om te verwachten dat grote bedrijven als Salesforce en inderdaad SAP, uh, maar, maar misschien ook wel op het operating system niveau, dus Google of Apple, dat die alles gaan proberen te doen.

211
00:36:14.600 --> 00:36:26.500
Dus één, één app die alles maakt. Uhm, maar zoals het altijd gaat in de economie zijn er dan kleine bedrijfjes die kleine delen daarvan pakken, uh, en dan gaan proberen dat kleine deel veel beter te maken.

212
00:36:26.560 --> 00:36:37.760
Zoals er bedrijven zijn die proberen één specifiek ding wat Shopify doet, dus webwinkels maken, uh, beter te maken. Weet ik veel, voorraadbeheer of zo. En dan bedenken ze: nou, dat gaan wij beter doen dan Shopify zelf.

213
00:36:37.800 --> 00:36:43.200
En dan is dat alsnog een business. Dat is een vorm van ontbundelen en zo zal dat hier ook blijven gaan. Je zal allerlei specialisaties blijven houden.

214
00:36:43.260 --> 00:36:55.352
Maar ik bedoel het, ik bedoelEigenlijk probeert mijn, mijn, mijn vraag is eigenlijk: waar werken we nou naartoe als het gaat over betere, kleinere modellen maken? Modellen die lokaal draaien op je, op je smartphone.

215
00:36:55.752 --> 00:36:58.972
Wat is nou het doel daar? Ja, dit, daar zijn wel verschillende kanten aan, hè.

216
00:36:58.992 --> 00:37:08.512
Want wat bijvoorbeeld in die, uh, release, het releaseblog van Phi2 van Microsoft staat, hè, dat kleine modelletje die eigenlijk hartstikke goed is, want die is getraind op textbooks.

217
00:37:09.512 --> 00:37:19.772
Daar staat ook heel trots bij wat het hun gekost heeft om hem te trainen. En dat kost ook veel minder. Volgens mij hebben ze het over vijftig GPU's, twee weken in plaats van 50.000 GPU's.

218
00:37:19.852 --> 00:37:29.792
Nee Sjoerd, dat is een evident voordeel. Gewoon efficiëntie. Ja, en dat, dus dat is een economisch, uh, verhaal. Dan kan je kijken, ik, ik ben, ik ben benieuwd of daar zo,

219
00:37:31.312 --> 00:37:42.252
uh, er zit een stukje omdat het kan mentaliteit achter, denk ik, hè. Zullen we gewoon kijken omdat het kan. Zelf zou ik zeggen: in het geval van lokale taalmodellen zit daar een democratisch politiek element in, hè.

220
00:37:42.312 --> 00:37:53.352
Dus als iedere burger op zijn of haar smartphone een taalmodel kan draaien wat daar blijft en staat, dan kan je daar bijvoorbeeld vragen aan stellen die te maken hebben met je eigen mentale staat.

221
00:37:53.472 --> 00:38:04.152
Uh, dat je zegt: ik ga een soort, uh, uh, live coach op mijn telefoon installeren. Nou, dan zou ik iedere luisteraar aanraden om dat op je telefoon te installeren en niet te laten draaien in een datacenter.

222
00:38:04.442 --> 00:38:14.512
Dat heeft gewoon te grote privacy implicaties. Uhm. Ja. Ik, ik zie nog geen wetgeving die kan garanderen dat je daar, uh, veilig bent als burger. Dus ik, mijn voorstel.

223
00:38:14.752 --> 00:38:17.122
Nee, dus het heeft heel veel voordelen om, om dingen lokaal te draaien.

224
00:38:17.132 --> 00:38:28.052
Ik ben benieuwd of er bij Microsoft in dat team die aan Phi2 zit zoveel, uh, mensen zitten die zeggen: nou, ik kom iedere ochtend uit mijn bed omdat ik, uh, taalmodellen wil democratiseren.

225
00:38:28.112 --> 00:38:37.772
Ik denk dat het ook, dat dat meer te maken heeft met een economisch incentive. En, uhm. Tuurlijk. En vooruitgang is een doel op zich. Dat snap ik ook, dat dat een reden is om te innoveren.

226
00:38:37.812 --> 00:38:40.232
Maar ik merk gewoon in mijn hoofd loop ik hier een beetje op vast.

227
00:38:40.272 --> 00:38:49.992
Namelijk dat ik denk: oké, het eerste wat we gaan krijgen is een soort van, uh, al onze telefoons veranderen in clippies, namelijk: het lijkt erop dat je een reis naar Parijs aan het plannen bent.

228
00:38:50.192 --> 00:38:59.011
Zal ik je daarbij helpen? En dan gewoon bam, bam, bam. Hij boekt tickets. Hij, hij weet wat voor type plek je wil in een trein. Uh, hij, hij weet dat je altijd met een taxi gaat.

229
00:38:59.332 --> 00:39:10.612
Hij weet dat je altijd, uh, als je aankomt in Parijs, uh, weet ik veel, bij een of ander restaurant wil eten en dat hij gewoon een zestal voorstellen doet uit zichzelf. Zal ik daar boeken? Er is plek om half acht.

230
00:39:10.932 --> 00:39:20.372
Zal ik, uh, de raamplek voor je reserveren in de trein? Zal ik? En dan gaat hij gewoon al die, al die shit gewoon doen. Weet je, dit is een soort van paar jaar, uh, oud, maar die clippie op mijn telefoon.

231
00:39:20.552 --> 00:39:30.792
Ik lijkt me heerlijk en dat gaat er zijn en dat wordt geweldig. De stap daarna is dat we, uh, niet, niet meer in het paradigma van apps zitten, maar dat er iets anders is.

232
00:39:30.852 --> 00:39:46.932
Gewoon de, de hele, de app, die telefoon is gewoon de hele tijd apps voor jou aan het verzinnen, spelletjes aan het verzinnen, manieren om nieuws aan jou te laten zien aan het verzinnen, uh, manieren om je beter te laten communiceren met vrienden aan het verzinnen en dat is voor jou.

233
00:39:47.052 --> 00:39:49.312
Je hebt een andere WhatsApp, zeg maar, als ik heb.

234
00:39:49.992 --> 00:39:58.692
Uhm, we hebben allemaal onze eigen WhatsApp en eigen user interface en dat wordt allemaal on the fly bedacht zonder dat een programmeur daar van tevoren over heeft moeten nadenken.

235
00:39:59.392 --> 00:40:03.372
Ik zie dat voor me dat dat gaat gebeuren. Zo, zo is het ook in de films, zeg maar.

236
00:40:03.452 --> 00:40:14.512
Het ding wat op het hologram getoond wordt in een sciencefictionfilm, uh, daarvan ga ik vanuit dat dat gewoon, dat kan alles, uh, uh, naar, naar voren toveren en dan gaat het echt zijn zoals in CSI.

237
00:40:14.592 --> 00:40:20.992
Namelijk dat je kaarten apps hebt die er heel gaaf uitzien en, uh, nou, laserstralen en rookmachines, wordt geweldig.

238
00:40:21.732 --> 00:40:32.852
En ik snap dat we daar naartoe werken en dat dan als, dat dat noodzakelijk is om daarvoor, uh, telefoons zelf te kunnen laten programmeren. Dat is waar we het over, waar we het over QStar gehad hebben.

239
00:40:32.892 --> 00:40:37.612
En, uhm, nou, een telefoon moet gewoon zelf apps kunnen maken. En als ik je dan nog even bij mag vallen.

240
00:40:37.672 --> 00:40:49.292
Ik denk wel dat, uh, of dat dan lokaal draait of niet, uhm, ik kan me sowieso voorstellen dat een soort hybride ding, dat zou mijn voorkeur hebben persoonlijk. Dus dat ik een taalmodel of wat dan ook.

241
00:40:49.332 --> 00:40:54.172
Ik heb een stukje AI ensemble op mijn lokale apparaat staan met een GPU

242
00:40:55.092 --> 00:41:06.472
of een, uh, processor in mijn, in mijn smartphone die daarvoor geoptimaliseerd is, maar die mag dan best wel aan mij vragen: ik wil even naar Ultra toe, ik ben pro, maar, of ik ben nano. Voor wat je me nu vraagt- Ja.

243
00:41:06.492 --> 00:41:16.092
Moet ik even naar het datacenter toe. Is dat oké, zolang ik? Ja. Prima. Dus jouw verhaal, zeg maar, volgens mij valt of staat dat niet of dat het nou lokaal is of niet.

244
00:41:16.612 --> 00:41:29.152
Hè, maar, uh, wat gebeurt er als je een AI-saus over het hele idee van een smartphone en een operating system heen. Gewoon, wat als, wat als je geen apps meer hebt en apps worden voor iedereen on the fly gemaakt?

245
00:41:29.192 --> 00:41:39.672
Ja, weet je waarom? Een soort app streamen. Waarom ik een soort van sceptisch ben, maar dat is misschien mijn leeftijd inmiddels, maar ik denk: die belofte is er al zo lang, maar misschien wordt hij een keer waargemaakt.

246
00:41:39.692 --> 00:41:47.472
Een soort van die ultieme personificering, hè, van, uh, ja, jouw telefoon, jouw apparaat is precies voor jou.

247
00:41:47.532 --> 00:42:02.592
Dat ik denk dat waarom dat tot nu toe vaak niet gelukt is omdat je die, uh, bijvoorbeeld, oké, instant messaging. Je hebt, uhm, heel lang geleden had je Adium als ik het goed zeg, want Adiumd. Ja, ik herinner me dit.

248
00:42:03.072 --> 00:42:18.032
Adiumd, ICQ, MSN Messenger, Jabber. Uh, dat is een protocol trouwens. Maar goed, alle, uh, messaging clients combineren tot één super messaging client. Uh, in vandaag de dag heet dat Beeper bijvoorbeeld.

249
00:42:18.072 --> 00:42:23.932
Of Text.com, uit mijn hoofd, Texts.com. Beeper is wat bekender nu omdat er wat heisa is rondom Beeper.

250
00:42:24.412 --> 00:42:39.002
Wat Beeper doet is: log in met je Signal, WhatsApp, Discord, Slack, iMessage, uh, en dan tonen wij dat in een unified messaging interface en dan kan je daar binnen. Ja, één app for all your messaging apps.

251
00:42:39.022 --> 00:42:50.752
Nou, dat gaat redelijk. Het is heel populair. Mensen vinden dit gaaf, uh, dus het is een bedrijf en het loopt. Maar, uhmIk merk en dat is misschien, maar misschien ben ik dat, maar er zullen er wel meer zijn zoals ik.

252
00:42:50.792 --> 00:42:57.912
Dat ik denk eh krijg ik, ik weet niet. Er zitten net kleine dingetjes in al die apps die net even anders zijn of zo. Ik wil eigenlijk dit niet.

253
00:42:57.992 --> 00:43:09.892
Geef mij maar gewoon de native experience zoals de ontwikkelaar hem heeft bedacht. En daarbij. Maar goed, ik ben wel echt wel een beetje een [lacht] enorme nerd, dus misschien wil ik wel naar het rauwe toe.

254
00:43:09.952 --> 00:43:19.532
En, uh, negentig procent van de gemiddelde, uh, mens op een telefoon niet. Vraag ik me af of, uhm, ja, dat je de.

255
00:43:19.572 --> 00:43:29.312
Want wat we nu eigenlijk bespreken is dat alle individuele apps op een smartphone in essentie, ge, uh, ja, op de achtergrond verdwijnen, hè. Die zijn er nog wel, maar dat doet er niet meer toe.

256
00:43:29.412 --> 00:43:39.132
Uber is op jouw telefoon ergens aanwezig, maar jij gaat nooit meer die Uber app openen, want je wilde nooit een Uber app openen. Je wilde van A naar B. Niemand wil die app. Mhm. Mensen willen van A naar B.

257
00:43:39.752 --> 00:43:50.032
En als jij eenmaal tegen je telefoon kan zeggen of die telefoon zegt zelf: ik zie je agenda A naar B. Toet toet, hij staat al voor de deur. Ga jij nooit meer die Uber app openen, want dat wilde je sowieso al niet. Ja.

258
00:43:50.352 --> 00:44:00.572
Dus ik denk dat je daar, als dat echt zo goed wordt als wij nu allebei anticiperen, uh, dan is er een soort einde voor heel veel use cases aan de app an sich.

259
00:44:00.892 --> 00:44:05.492
Een, een, o-icoontje waar je op drukt, waar een interface in komt die ontworpen is door iemand van dat bedrijf.

260
00:44:06.192 --> 00:44:18.712
En dat we komen op een plek waar het een soort magisch apparaat is die vooruit voor je denkt, met je meedenkt en met jou in gesprek is of in interactie. Om, om tot, ja. Maar waar zit jouw twijfel dan?

261
00:44:19.672 --> 00:44:36.192
Uhm, nou ik, misschien is het gewoon de desillusie of zo. Ik ben gedesillusioneerd door, uh, omdat dit ons al zo vaak beloofd is en het iedere keer gewoon echt niet was. Wat is ons vaak beloofd?

262
00:44:36.232 --> 00:44:47.772
Het idee dat je ging, Siri, dat we gaan praten met. Ik wil helemaal niet praten met mijn telefoon. Maar ik ben toch, ik, er is wel iets met mij gebeurd sinds Siri er is. Nee [lacht] tuurlijk, maar dat, dat, ha.

263
00:44:48.172 --> 00:44:57.831
Het is toch gewoon. Ja, ik moet het, ik moet het dan misschien, uh. Maar wat is het deel wat je dan niet gelooft? Dat computers zo goed kunnen programmeren dan dat ze apps kunnen maken? Dat geloof je niet.

264
00:44:57.912 --> 00:45:09.272
Of geloof je niet dat mensen intrinsieke behoefte hieraan hebben? Nou, wat ik bijvoorbeeld merk is bij Spotify de Spotif-de Spotify homescreen zeg maar waar je op binnenkomt in de mobile app op Spotify.

265
00:45:10.132 --> 00:45:22.412
Die, en nu klink ik misschien gewoon als een oude man. Dat kan, dat ik een soort oude internetman ben, maar, uhm, daar, de dingen staan gewoon heel de tijd niet op dezelfde plek. Onderaan wel, ook al veranderen ze dat.

266
00:45:22.452 --> 00:45:31.572
Je bedoelt dat hij allerlei suggesties. Ik haat het, ik haat het. Weet je. Ja, jij wil gewoon je playlist. Weet je wat nog erger is als je de app opent? Je ziet iets staan, daar wil je op drukken.

267
00:45:31.812 --> 00:45:40.532
Dan refresh die mid tab en druk je ineens op wat anders. Ja, maar Wytse, dit is toch, wat ik toch, p, wat ik toch claim is toch de oplossing hiervoor?

268
00:45:40.652 --> 00:45:47.692
Want Shopify probeert jou een bepaald, uh, bepaalde app door je strot te duwen, terwijl jij denkt: ik wil dat die app er anders uitziet.

269
00:45:48.172 --> 00:45:56.452
Hoe vet dat je dan tegen je telefoon kan zeggen: haal die dingen allemaal weg, toon mij gewoon altijd de, de, m'n vaste vijf liedjes als ik in de sportschool ben.

270
00:45:56.492 --> 00:46:06.712
Ja, ik, ik denk dus, ja, dat het een soort van Wytse zijn eigen musicplayer is die even voor hem gemaakt wordt, waar precies alles in zit wat ik wil. Ja. Ja. Ja. Nou ja, i-ik, ik moet het even zien nog.

271
00:46:06.722 --> 00:46:15.872
Ik snap niet dat jij. Ik zie het wel in mijn fantasie, maar ik zie het gewoon. Maar wat is deze, ik, dit, voor mij is dit volkomen lo-- dit, ik twijfel er geen seconde over dat dit gaat gebeuren.

272
00:46:15.942 --> 00:46:22.932
Ja, nou, ik ben, maar ik ben ook iemand die geen widgets heeft en zo. Ik vind het allemaal helemaal niks. Mijn hele homescreen is leeg. Misschien ben ik gewoon een beetje vreemd daarin of zo.

273
00:46:23.672 --> 00:46:35.532
Wat ik wil is dat ik gewoon kan zeggen, uhm, wat jij net zei van de dingen die ik, ik bedoel dingen die ik bijvoorbeeld, die ik leuk vind, is als, als ik ergens naartoe ga met mijn vriendin om dat hotel te vinden.

274
00:46:35.572 --> 00:46:45.332
Ik vind dat hele proces leuk. Ik vind eigenlijk bijna [lacht] bijna het proces van zoeken met hardware iets vaker dan met een hotel. Wat mij betreft is dat proces van zoeken minimaal even leuk als het hotel bezoeken.

275
00:46:45.372 --> 00:46:58.012
Laat ik het dan zo zeggen. Uhm, dus dat hoeft van mij niet weg. Maar, uh, andere dingen zoals boodschappen doen bijvoorbeeld vind ik vreselijk. Maar dat is dus de grap dat je het deel kan automatiseren wat je haat.

276
00:46:58.092 --> 00:47:07.712
Namelijk, ik weet niet of jij voor je plezier naar een hotelsite gaat en dan die hele boekingsflow doorploegt. Ik moet zeggen, dat is niet mijn favoriete moment in het leven. Maar de, ik.

277
00:47:08.292 --> 00:47:14.932
Oh, dit is het deel wat je wil houden. Kutwebsites. Nee, nee, nee, nee. Leuke websites. Uit een soort nostalgische. Maar het is wel als een oude lp kopen toch?

278
00:47:14.952 --> 00:47:22.972
Moet je dat ding uit die, uit de, uit het karton trekken en dan op dat apparaat leggen. Nee, potver Wytse, wat ben je toch een rare man. [lacht] Nee, maar oké met mij.

279
00:47:22.992 --> 00:47:33.752
Ik wil toch even opnemen voor de rest van de, de groep weirdo's die er is. Ja, jij spreekt voor de [lacht]. Het is een soort gemaakte frictie. Uh, mooie, mooie frictie, uh, zo mag dat heten of zo.

280
00:47:33.892 --> 00:47:45.192
Oké, nou, ik geef je helemaal dat het soort van leuk is om naar websites als boekwinkeltje.nl te gaan en dan, uh, een boek te kopen op een heel lelijke website met een heel rare checkout flow omdat dat echt iets heeft.

281
00:47:45.332 --> 00:47:53.312
Ik snap het, het is als het equivalent van een lp. Maar laat, laten we wel wezen, bij een Hyatt of zo, of zo'n ketenhotel, zo'n kutwebsite doorploegen.

282
00:47:53.352 --> 00:47:58.262
Jij gaat mij niet vertellen dat daar een, ook maar een eens plezier in jouw leven. Nee, zeker, zeker. Weet je. Dat, dat bedoel ik.

283
00:47:58.272 --> 00:48:09.472
Wat jouw hele punt natuurlijk maakt is in, want wat we eigenlijk beschrijven is, uh, zoals Siri dus ooit beloofd is, de personal assistant. Die bestaat al heel lang.

284
00:48:09.632 --> 00:48:21.652
Dat is iets wat over het algemeen iets is voor mensen van een wat hogere klasse. En in de wereldgeschiedenis is dat eigenlijk grotendeels koningen, aristocratie. Die, uh, noem een Benjamin Franklin.

285
00:48:22.152 --> 00:48:32.112
Die kwam 's ochtends uit bed en dan zei die, ik noem maar wat: Alexander. En die kwam dan binnenlopen. Oké, we gaan een brief schrijven naar die en die, ik, ik citeer. En dan brrrap, papapapapap.

286
00:48:32.152 --> 00:48:41.172
Die roept, die riep wat in de, in de, daar kwam een brief uit en die, die werd gepost. Die werd, of die werd gebracht met een paard, opgeschreven, stempel erop. Hoeft de Benjamin zelf allemaal niet te doen.

287
00:48:41.592 --> 00:48:45.672
Volgens mij is dit iets wat we al hebben gezien in het verleden dat het gebeurt.

288
00:48:45.712 --> 00:48:57.972
Dus als een welke AI, maar maar noemen de rol kan spelen van die Alexander destijds die voor jou de brief schrijft, verstuurt en alles doet, dan willen mensen dit, want dit wilden mensen al heel lang.

289
00:48:58.012 --> 00:49:07.252
Alleen de rijken konden het alleen maar. Dus ik denk de rol van een AI in je leven als de ultieme superserie, daar ga ik niet met je over in discussie. Dat is er.

290
00:49:07.412 --> 00:49:17.320
Dit willen we, want dit wilden we al, maar het merendeel van ons kon het niet betalen. D-dus alleenWat is de maar? Nou, de maar zit dat ik gewoon nog even aan het zoeken ben naar.

291
00:49:17.360 --> 00:49:26.480
Praten tegen mijn telefoon wil ik niet, dus het wordt geen audio interface, want ik vind dat gewoon ongemakkelijk en ik ben zeker niet de enige. Dus wordt het iets visueels.

292
00:49:27.140 --> 00:49:41.020
Dus dan komen we een beetje op die ja, jouw eigen. Het kunnen meerdere interfaces zijn. Daarbij denk ik dat mijn fantasie gewoon nog niet breed genoeg is om te zien. Kan er inderdaad als ik zeg tegen.

293
00:49:41.160 --> 00:49:48.540
Misschien doe ik wel even praten, want ik ben alleen thuis en ik vind het op. Ik ga gewoon lekker even riffen. Dus ik leg die telefoon op tafel en ik loop rondjes. Ik ijsbeer door mijn kamer.

294
00:49:48.580 --> 00:49:59.160
Dan zeg ik Goedemorgen Kees, want zo noem ik dan mijn personal assistant. Wij gaan vandaag een muziekspeler maken voor mij. Dit is wat ik eigenlijk zou willen dat Spotify was.

295
00:49:59.200 --> 00:50:07.780
En dan begint eigenlijk die hele muziekspeler en dan zegt hij boem boem en dan ting en dan is daar. Dan heb je het. Dat als en als het als ik dat, dan moet ik dan toch even zien.

296
00:50:08.680 --> 00:50:17.420
Nou, maar ik ben echt bijna teleurgesteld. Jammer, hè? Niet dat dit niet gewoon onderdeel is van jouw van jouw bakken en aannames tijdens deze podcast.

297
00:50:17.479 --> 00:50:30.340
Ik ben een beetje ontluisterd, want ik denk ik denk gewoon superserie is voor mij het absolute minimum. Het idee dat dat dat ding voor je shit kan regelen inderdaad. Zoals Benjamin Franklin iemand op een paard had dat.

298
00:50:30.480 --> 00:50:42.540
Dat is gewoon dat is binnen drie jaar. Als ik dat niet heb, word ik gek. En mijn paard. Mijn vraag is ja, maar mijn vraag is wat komt daarna? En dan hou ik mij. Grappig. Ik ben dus niet eens. Met je mee. Juist. Twee.

299
00:50:42.680 --> 00:50:55.200
Jij wil naar stap zeven. Nee, precies. Ja, ik vind het teleurstellend. Ik richt mij nu tot de luisteraar. Sorry. En mijn vraag is ja, nee, is oké. Mijn vraag is jij weet weer heel veel van kleine taal modellen.

300
00:50:56.340 --> 00:51:09.700
Mijn vraag is wat komt er daarna om? Als we eenmaal dat superserie hebben, iemand die of een, een ding wat shit voor je kan regelen, hoe gaat dan onze interactie met een telefoon er uitzien anders dan spraak?

301
00:51:09.720 --> 00:51:20.120
Want ik ben met je eens. Het het idee dat alles maar met praten opeens gaat zijn is gewoon heel rare wereld. Dat geloof ik niet, dat iedereen de hele tijd. Maar dat is bijna een detail. Gaat praten. Detail.

302
00:51:20.180 --> 00:51:31.890
Prima, dan wordt het wat anders. Precies. Precies. Dus wat dan? Over is, is een zeg maar. Ik zit dan te denken hoe gaan wij in de toekomst nieuws consumeren? Hoe gaan we in de toekomst een wasmachine bestellen?

303
00:51:31.960 --> 00:51:37.060
Hoe gaan we in de toekomst een reis bedenken? En als ik denk aan een wasmachine bestellen.

304
00:51:37.120 --> 00:51:47.680
Nou, dan is het dus nu ga je naar Coolblue en dan klik je door Coolblue en dan hebben zij bedacht dit is een flow om jou een wasmachine te laten bestellen. Misschien gaan ze je vragen wil je energiezuinig ja of nee?

305
00:51:48.020 --> 00:51:56.300
Misschien vind jij het belangrijk dat je veel knoppen hebt op een wasmachine ja of nee? Misschien vind jij het belangrijk dat die goedkoop is of duur is ja of nee. Nou, dat zijn allemaal een soort van funnels.

306
00:51:56.340 --> 00:52:03.780
En Coolblue heeft een funnel bedacht en daar trekken ze je helemaal doorheen tot het moment dat dat ding aangesloten aan jouw huis staat. Nou, helder, dat is nu hoe het werkt.

307
00:52:04.280 --> 00:52:12.920
Dan gaan we waarschijnlijk toe naar een wereld waarin ik aan super superserie vraag. Hallo, ik heb een wasmachine nodig. Dan gaat superserie.

308
00:52:12.960 --> 00:52:22.780
Gaat alle websites lezen die gaan over wasmachines zoals ChatGPT je ook tips zou kunnen geven als je nu een wasmachine wil bestellen dat hij denkt nou dat zijn. Hier zijn zes dingen waar je aan moet denken.

309
00:52:23.160 --> 00:52:31.160
En dat is dan niet op basis van één website van Coolblue met een redactie of wat dan ook, maar op basis van geaggregeerde informatie van talloze.

310
00:52:31.180 --> 00:52:39.640
Maar dan denk ik sorry dat ik je onderbreek, maar dan denk ik, want we zaten net op stap twee. Ik ging amper mee naar stap 2,5. Nu gaan we even samen naar stap tien. Kan toch even niet laten.

311
00:52:40.360 --> 00:52:49.940
Als we dan, als jij zegt wat komt daar dan na? En we gaan terug naar het idee niemand wil de Uber app, niemand wil de Uber app openen, niemand wil op knoppen drukken.

312
00:52:50.260 --> 00:53:03.700
Ik wil van A naar B, want ik wil familie bezoeken en die wonen in Woerden. Daar woon ik niet. Dus hoe kom ik in Woerden? Sterker nog, mijn echte wens is in de kamer zitten met een kop koffie bij mijn opa en oma.

313
00:53:04.760 --> 00:53:18.900
Dat is de echte wens. En dan komt technologie daar in de weg. Met allemaal irritante shit waar ik allemaal langs moet. Dus als we volgens mij een stap verder gaan stel we pakken de klaarblijkelijk kwablijkelijke.

314
00:53:18.920 --> 00:53:24.820
Ik ben een beetje cynisch, maar innovatie die er nu weer is op het gebied van robotica. Want robotica begint weer een beetje op te warmen.

315
00:53:24.960 --> 00:53:38.260
Dat komt ook omdat nu Tesla met hun Optimus Gen drie uit mijn hoofd of Gen twee is gekomen. Twee. Ik ben er een beetje ingedoken. En voor de luisteraar is dat een hele gave teaser video.

316
00:53:38.300 --> 00:53:51.520
Eerst op X en daarna pas op YouTube. Typisch als X van jou is als maker van een robot. 1,5 minuut. Die een beetje Boston Dynamics, maar dan ontworpen door mensen met smaak. Laat ik het dan zo maar even zeggen.

317
00:53:52.800 --> 00:54:03.440
Ja, Elon Musk wil heel graag dat het er menselijk uitziet. Dus niet een of andere robot hond of een ander monster wat Boston Dynamics altijd doet, maar gewoon het. Het ziet eruit als een. Als een robot mens.

318
00:54:03.460 --> 00:54:16.140
Een domino tot hij. Gaat lopen. Dan is het iemand met een zwembroek aan waarin hij net gepoept heeft. Maar. Sorry hoor, maar ja. Maar ja, hij loopt heel. Ik heb dat ook weer helemaal. Hij loopt. Onderzocht.

319
00:54:16.180 --> 00:54:24.360
Dat heeft weer te maken met het feit dat de rug nog statisch is en dat hoe wij lopen heeft ook grotendeels te maken met een dynamische rug. Als je geen. Nou ja, dat soort dingen. Super vet!

320
00:54:24.780 --> 00:54:34.940
Ik heb ook gekeken naar allerlei robotica mensen die hier al heel lang mee bezig zijn en het is de AI mensen die nu allemaal zeggen potverdikkie, nu zijn jullie er ineens allemaal mee bezig en noemen jullie zelf allemaal expert.

321
00:54:35.040 --> 00:54:37.940
Ik heb het potverdikkie dertig jaar gestudeerd en er gebeurt wat.

322
00:54:38.260 --> 00:54:47.460
Zo heb je nu ook robotmensen die ineens zeggen van joh, ik had al een robot hand gemaakt dertig jaar geleden bij de TU Delft en nu zitten ze ineens gaat iedereen ineens klappen voor Tesla. Dat is het leven.

323
00:54:49.320 --> 00:54:58.560
Die robot die Tesla nu gemaakt heeft is wat betreft state of the art niet per se superspectaculair. Er zijn andere robotica bedrijven op de hele wereld die gavere dingen maken.

324
00:54:59.260 --> 00:55:12.880
Maar ja, Tesla kan het in fabrieken gaan neerzetten. You name it. Kan ik uren over praten wat daar weer allemaal kan gebeuren. Waar ik het nu over wil hebben is stel dat jij zegt ik wil schone kleren. Ja.

325
00:55:13.020 --> 00:55:22.340
Dus we gaan even. Die wasmachine zetten we even opzij. We willen schone kleren. Dan zou het zomaar zo kunnen zijn dat jouw kleren opgehaald worden door een robot. Want kijk nu.

326
00:55:23.260 --> 00:55:32.568
Ik denk dat als je wil weten waar het naartoe gaat, dat je in essentie zou kunnen kijkenWat als geld geen, geen barrière zou zijn in je leven?

327
00:55:32.608 --> 00:55:42.328
Dus noem het even de infinite money money machine die je hebt en je zou er geen moeite mee hebben. Je hebt er geen moeite mee om andere mensen daar op dit moment voor in te schakelen.

328
00:55:43.108 --> 00:55:51.678
Dan kan je al aardig indenken hoe het zou zijn, want je wil uiteindelijk helemaal niet nadenken over wasmachines, wateraansluitingen en loodgieters. Het is eigenlijk ik, ik.

329
00:55:51.708 --> 00:56:01.268
Ik bouw een archaïsche tussenstap in, namelijk een wasmachine in je huis überhaupt moeten hebben. We gaan daar natuurlijk voorbij. Dan gaan we zeggen. Nou, dit zit. Het idee van Uber was het een tijd geleden.

330
00:56:01.308 --> 00:56:08.148
Als we straks zelfrijdende auto's hebben, dan is geen autobezit helemaal niet meer nodig, want je wordt opgehaald als je er zin in hebt door een type auto die handig voor jou is op dat moment.

331
00:56:08.288 --> 00:56:18.808
En ik denk dat het gaat een beetje gaat zijn op die waar we het eerder over gehad. Die rare brute force manier dus. Ik denk dat er straks klassieke vrachtwagens rond gaan rijden met daarin robots achter het stuur.

332
00:56:19.138 --> 00:56:31.388
Wat iedere engineer doet creaken wat ik altijd zeg, maar dit is gewoon een beetje hoe het gaat. Daarom, dat is ook de reden waarom een humanoïde bipedal robot, want het is best wel moeilijk om te maken.

333
00:56:31.408 --> 00:56:34.568
Het is veel logischer om gewoon een hond te pakken. Die kan sneller rennen, is veel stabieler.

334
00:56:35.008 --> 00:56:42.668
Maar die bipedal, die past in op bestaande stoelen van vrachtwagens en nog veel meer plekken kan die door deuren heen lopen, want die zijn allemaal gemaakt volgens.

335
00:56:42.728 --> 00:56:52.088
Als je een robot maakt aan de menselijke maat, dan is die API compatible met de materiële wereld, Met die wereld. En dat is waarom hij dat doet. Ja dus.

336
00:56:52.588 --> 00:57:03.168
Ik denk dat uiteindelijk er een vol met krassen en stickers en graffiti de robot bij jou binnen komt lopen in Amsterdam. Want op straat worden die gaan mensen natuurlijk daar stickers op plakken, dat weet ik zeker.

337
00:57:03.208 --> 00:57:05.768
Dat ding is nooit netjes. Trappen, ballen. Die komt dan.

338
00:57:05.988 --> 00:57:17.248
Die komt dan binnen, pakt jouw kleding rond het hele huis op met object recognition en heeft waarschijnlijk alweer legt op die plek diezelfde spullen neer, want je hebt een abonnement bij de H&M.

339
00:57:17.308 --> 00:57:28.488
Ja, ik, ik, dat denk ik dan. Ik zou het liever bezitten. Ja, oké Wytse, maar dit is een. Het is een iets ander abstractieniveau. Jij wil dat. Ik snap jij, je hebt gelijk. Wat zit ik nou te lullen.

340
00:57:28.608 --> 00:57:37.128
Met je fucking wasmachines? Waarom bestaan smartphones? Ja, ga gewoon in hologram leven, heb je geen kleren nodig. Jij zegt joh, zullen we het eens houden op 48 maanden?

341
00:57:37.647 --> 00:57:44.108
Ik bedoel over 48 maanden loopt die robot niet bij jou binnen. Nou, ik denk vooral kijk ik.

342
00:57:44.248 --> 00:57:55.628
Wat nou als je Pieter Zwart bent en je hebt een webwinkel en heel veel mensen die voor je werken en mensen die blij zijn dat ze een wasmachine aangesloten thuis aangeleverd krijgen. Nu heb je.

343
00:57:55.688 --> 00:58:06.048
Nu ben je gewend dat mensen naar jouw website gaan. Straks is Super Siri er. Die gaat voor jou die website bezoeken en dat dan allemaal op die website regelen. Wat komt daar dan na?

344
00:58:06.108 --> 00:58:17.528
Want ik denk niet dat het zo gaat zijn dat je alles doet via een hele saaie interface. Kijk, het gaat niet via een soort van. Kijk, Siri is een heel saaie interface.

345
00:58:17.568 --> 00:58:29.148
Je roept Siri nu op op je telefoon of Google Assistant. Dan neemt het je scherm over. Dan wordt het een soort van wit vak, opeens een soort chat interface. Die die, die komt. En daarin moet alles.

346
00:58:29.328 --> 00:58:39.368
Alles moet in een soort van tekstbubbels en dan hooguit dat er een plaatje in een tekstbubbel bij komt. Maar dat is ongeveer de, de flexibiliteit die de interface heeft. Nou, mijn punt is dat gaat niet zo blijven.

347
00:58:39.408 --> 00:58:45.848
Het wordt veel fluïder. Het wordt, dat wordt. Die interfaces worden dynamisch op, op basis van wat je op dat moment nodig hebt.

348
00:58:45.888 --> 00:58:58.668
En ik denk dus dat als jij zegt tegen dat ding met je, met je vingertjes typ je dat ik wil een wasmachine, want hij is stuk. Dat hij dan een manier. Eigenlijk gewoon een soort van webwinkel voor je gaat bedenken.

349
00:58:59.248 --> 00:59:09.468
En die computer, die gaat dan nadenken. Moet ik die webwinkel? Moet ik die wasmachine überhaupt wel bij Coolblue bestellen? Of ga ik dat bij een andere winkel? Hij gaat op de achtergrond een prijsvergelijking doen.

350
00:59:09.488 --> 00:59:20.368
Weet je prima dat Coolblue goed advies geeft over, over wasmachines, maar laat ik Coolblue helemaal leegtrekken voor het advies en hem dan ergens anders bestellen waar die goedkoper is. Ik noem maar wat.

351
00:59:20.408 --> 00:59:28.488
Dat gaat die computer natuurlijk doen. En ook het advies wat jij nodig hebt kan aangepast zijn op jou zelf.

352
00:59:28.508 --> 00:59:36.908
Waar Coolblue nog in een soort van alles in een mal moet gooien, kan dit ding de hele consumentengids van de afgelopen veertig jaar leeglezen.

353
00:59:36.948 --> 00:59:46.488
En ook nog alle consumentengidsen van alle andere landen om ons heen lezen om dan te komen tot een advies. Weet je wat ik nu zit te denken? Kijk, kijk. Oké, ik ook. Wat gaat Pieter Zwart dan doen?

354
00:59:46.528 --> 00:59:54.268
Nou, ik zit te denken als ik de Cool. En misschien. Is het Kijk, als je naar Coolblue winkel gaat, komen daar mensen naar me toe en die mij kunnen helpen in een fysieke winkel.

355
00:59:54.768 --> 01:00:03.568
Dan kan je natuurlijk zeggen oké, je opent de Coolblue website of de app en er komt zo'n bolletje in de hoek met een chat die ik zo snel mogelijk wegklik, want Boehoe eng, het zal wel een sherry chat zijn, laat me met rust.

356
01:00:03.688 --> 01:00:13.148
Maar stel dat het een goede chat is. Het is geen chat, het is een poppetje. Het is Pieter zelf, want die leent zichzelf als. Fair enough, als avatar. Ben je naar op zoek?

357
01:00:13.188 --> 01:00:23.628
En dan zeg ik sowieso en dan gaan we in overleg over die tv. Sowieso is er dan waarschijnlijk nog een extra bolletje bij voor mij, namelijk Kees, mijn daadwerkelijke assistent die ik inmiddels gecreëerd heb.

358
01:00:23.868 --> 01:00:31.528
Die vertrouw ik net iets meer dan Pieter in die app, want die praat voor Coolblue. Is onafhankelijk. Dus ik zit te denken er is ruimte waarschijnlijk voor een.

359
01:00:32.008 --> 01:00:43.388
Net als dat er, want heel veel van de bestaande dynamieken die we in het leven al hebben, namelijk winkelpersoneel die adviezen uitbrengt rondom elektronica, kan je zo kopiëren naar het, het virtuele.

360
01:00:43.628 --> 01:00:53.108
Als ze maar goed genoeg zijn in het. En nu je zou. Je zou nu zelfs vanuit Coolblue kunnen zeggen we creëren een callcenter. Daar zetten we daadwerkelijke mensen neer.

361
01:00:53.368 --> 01:00:59.208
En die komen als bolletje in een app met een kleine FaceTime call. Ja, ik denk alleen voor mij zit een beetje in Bunk.

362
01:00:59.388 --> 01:01:04.808
De Bunk app heeft dit een beetje volgens mij dat mensen jou kunnen bijstaan in de app, wat volgens mij geen AI zijn voor zover ik weet,

363
01:01:05.968 --> 01:01:16.448
maar ik denk dat dat niet heel erg schaalbaar is, want je wil natuurlijk een soort ja, tv heeft een x marge. Nee, je wil een AI avatar nu. Nu zit ik te denken dat.

364
01:01:16.528 --> 01:01:26.268
Dat heeft weer heel erg te maken met dat ik het veel te veel bekijk vanuit mezelf. Ik ben die power user die op zich wel zou willen luisteren naar een advies in een app. En misschien is het wel zo.

365
01:01:28.128 --> 01:01:40.620
Je bent op zoek naar een geluidssysteem voor thuisDan zou in dat opzicht de hele app van Coolblue zich eigenlijk moeten gaan om ommorfen naar die use case. Nu zeg je.

366
01:01:41.240 --> 01:01:47.640
Maar hoe leuk zou dit zijn dat je zegt dat je bij wijze van spreken Pieter Zwart kan bellen van Coolblue met FaceTime?

367
01:01:48.100 --> 01:02:00.660
Dan komt hij, dan krijg je de AI avatar versie van Pieter Zwart en dan zeg jij ik wil een audiosysteem en dat hij dat hij me als een verkoper er doorheen gaat praten en aan het eind van het gesprek is dat ding besteld en komt hij naar je huis.

368
01:02:00.700 --> 01:02:05.600
Je hebt niks hoeven klikken in een winkelwagentje of wat dan ook. Het is gewoon alles is een gesprek. Best wel leuk.

369
01:02:05.660 --> 01:02:18.480
Zou ik zeker een leuk idee, maar waarschijnlijk zou ik Kees, mijn AI laten praten met alle sub API's van Amazon, Coolblue et cetera. Dat dat dan even. Maar dus. Dus. Ja. Dus je hele bedrijf veranderen. Want ik ik.

370
01:02:18.740 --> 01:02:28.900
Je kan het vanuit het consumentenperspectief bekijken en je kan het vanuit het perspectief van een incumbent bekijken. Een bedrijf wat graag een bedrijf wil zijn en waar ook functie voor is.

371
01:02:28.960 --> 01:02:32.300
Want het is niet alsof Coolblue alleen maar het frontje is.

372
01:02:32.320 --> 01:02:41.180
Het is er zit een heel logistiek systeem achter en er zijn daadwerkelijk mensen opgeleid die die dingen kunnen aansluiten en zo zie ik niet zo heel snel geautomatiseerd worden. Dus.

373
01:02:41.280 --> 01:02:55.800
Er is een er is heel veel waarde, maar die bestaat nu wel een beetje bij gratie van het goed het frontje maken. En als ik nu Pieter Zwart zou zijn, dan zou ik. Dan zou ik gaan proberen te bedenken oké, wat?

374
01:02:55.840 --> 01:03:07.280
Wat voor frontjes gaan consumenten willen? Nou, die willen inderdaad een onafhankelijk frontje. Of iets wat beter advies kan geven dan ja, dan andere dan andere diensten of zo die je kan.

375
01:03:08.000 --> 01:03:16.530
Die je kan nemen op je telefoon en dat je dat je gewoon ervan uit kan gaan dat je het beste of het meest leuke advies kan krijgen als je een nieuwe stereo wil kopen.

376
01:03:16.720 --> 01:03:33.460
In dat geval, als we het even binnen de Coolblue case houden. Misschien nog een leuke naam voor hun is Coolblue Kees, maar dan dus niet C A S E, maar K E E S. Coolblue Kees. Maar oké, ja dat.

377
01:03:33.880 --> 01:03:47.500
Ik zou dan denk ik eerder niet op de verkoop gaan zitten initieel, maar op service. En dan zou ik denk ik bijvoorbeeld de data die er nu is. Wat je uiteindelijk denk ik wil is als ik een mail zou krijgen,

378
01:03:48.640 --> 01:04:00.520
een goede persoonlijke mail waar zou staan jij hebt een wasmachine bij ons gekocht. Even terug op die wasmachine, een LG, noem maar op. Twee jaar geleden. Wij zien en met wij bedoelen we een AI.

379
01:04:00.560 --> 01:04:11.820
Dat is geen mens bij Coolblue, dat is veel te veel werk. Wij zien veel van die wasmachines terugkomen. Ja, ja, ja. Wat we jou voorstellen is we komen hem ophalen bij jou. We gaan hem vervangen voor een ander.

380
01:04:11.860 --> 01:04:21.680
Je krijgt korting, want hij is nog niet stuk, maar hij gaat binnenkort stuk. Als je zou, want het is eigenlijk preventief. Dit zie je bijvoorbeeld in grote fabrieken. Daar draaien tegenwoordig algoritmes mee. Ja, ja, ja.

381
01:04:21.700 --> 01:04:30.100
En die algoritmes zijn wel tof, want dan krijg je bijvoorbeeld dat als een machine op een bepaalde manier een andere trilling geeft dan, er is een anomalie, zeg maar.

382
01:04:30.140 --> 01:04:39.820
Dus die hele machine werkt nog, maar die gaat net even anders trillen. Dan wordt de machine al stopgezet en vervangen of gerepareerd, terwijl ze misschien niet eens weten waarom dat is.

383
01:04:39.940 --> 01:04:52.660
Maar alle andere machines die ooit zo gingen trillen gingen daarna stuk. En ik denk dus snap je dus uiteindelijk voor mij een soort van service bieden, preventief door middel van ja patroonherkenning.

384
01:04:52.800 --> 01:05:06.620
En Coolblue heeft heeft zelfs in de nieuwe opzet nog steeds meer data op dat gebied. Dus klantenservice, data, service, data en misschien ook iets met aankoopbeslissingen hoe consumenten tot een aankoopbeslissing komen.

385
01:05:06.680 --> 01:05:16.189
Die data op de achtergrond blijft nog steeds aanwezig in grote getalen en heel waardevol zonder het frontje Coolblue.nl of de Coolblue app zoals die nu.

386
01:05:16.460 --> 01:05:25.420
Ik zou ook nog zeggen dat in dit geval, waar je natuurlijk snel naartoe gaat, waar ik het in stap tien met die robot over had, is een wasmachine abonnement zoals veel partijen.

387
01:05:25.440 --> 01:05:37.300
Dit bestaat voor studenten heb je leasefiets, lease, lease, wasmachines, noem maar op. Ja, dat is Coolblue ook. En dan? Dan zou ik zeggen om daar juist een heel mooi eigenaars alternatief naast te blijven bieden.

388
01:05:38.200 --> 01:05:48.740
Om te zeggen van joh, wij zien ook in dat, want heel veel, niet iedereen is gecharmeerd van het idee dat je overal een abonnement op hebt. Maar het heeft natuurlijk wel heel veel voordeel om een abonnement te hebben.

389
01:05:48.840 --> 01:05:59.480
Maar het heeft ook voordelen om dingen te bezitten daadwerkelijk. En dat je. Ik zou het wel mooi vinden als dat altijd als een soort hybride model blijft bestaan en dat bezit ook fijner wordt.

390
01:05:59.700 --> 01:06:12.320
Dus joh, prima dat je geen abonnement hebt genomen op een wasmachine, hij gaat wel binnenkort stuk. Je krijgt korting. Tijd om hem te vervangen. Ja oké. Nou dit ter kennisgeving aangenomen dit. Bezit moet blijven.

391
01:06:12.380 --> 01:06:20.520
Oké, ik denk dus dat. Ja, helder. Heel fijn. Maar wat ik dus.

392
01:06:20.720 --> 01:06:28.460
Wat ik me dus ook hardop, als ik zit er hardop over zit na te denken, denk ik misschien dat het ook juist wel heel fijn is om dan als je dan iets koopt bij iemand.

393
01:06:28.720 --> 01:06:39.200
Kijk, gaan we niet terug naar de tijd van de groenteboer en de reis, het reisbureau? Hoe heet zo iemand in een reisbureau? Een agent? Hoe noem je iemand in een reisbureau? Zeker.

394
01:06:39.240 --> 01:06:52.340
Ja, je kan ook zeggen een vakantieconsultant, maar noem maar op. Nou. Maar stel je hebt een favoriete reisagent. Je bent in de jaren zeventig, je gaat een cruise maken. Of wat deden mensen in de jaren zeventig?

395
01:06:52.380 --> 01:07:00.860
En dan ga je naar jouw reisagent en dan ga je altijd naar Harry. Harry, die regelt voor jou alle reizen en misschien gaat dat zo ook wel zijn in, in ons nieuwe.

396
01:07:00.920 --> 01:07:10.180
Kijk, dit is allemaal weg geoptimaliseerd, want in plaats van een reisagent is er een anonieme Booking.com en dan als je klantenservice nodig hebt, iemand zonder naam die met jou praat.

397
01:07:10.220 --> 01:07:16.800
Het is allemaal een soort van in, in deze kapitalistische wereld kapot geoptimaliseerd, waardoor we geen nabuurschap meer hebben.

398
01:07:16.860 --> 01:07:27.540
Als ik, als ik Caroline van der Plas mag channelen en eigenlijk is dit de kans om dat weer terug te brengen en misschien ook wel een belangrijk element in hoe consumenten dan uiteindelijk die wasmachine bij Pieter Zwart gaan kopen.

399
01:07:27.920 --> 01:07:37.300
Is woord Pieter Zwart wordt gewoon zelf de persoon op wie wij vertrouwen als wij type in die kat in die productcategorie dingen willen kopen of service willen krijgen.

400
01:07:37.340 --> 01:07:45.812
En dat we het gewoon fijn vinden om zijn gezicht te zien. Het verschil is denk ik wel dat hetEenzijdig is, hè. Jij en ik hebben een hoop vrienden die wij niet kennen. Dat zijn de luisteraars.

401
01:07:46.392 --> 01:07:59.892
Bedoel maar, dat is een eenzijdige. Ik heb. Ik ontmoet wel eens mensen die naar de podcast luisteren die ik blijkbaar wekelijks intiem in hun oor zit te fluisteren dat de bot van Coolblue Kees moet heten.

402
01:08:00.232 --> 01:08:13.952
Maar ik heb hun nog nooit ontmoet en zij praten met mij op een soort, uhm, manier dat ze me kennen. Maar ik heb een. Dus het is eenzijdig in jouw verhaal nu. Ja. Vind ik wel interessant, want stel dat je.

403
01:08:14.272 --> 01:08:23.012
Ik ben te jong om naar een reisbureau te zijn gegaan. Uhm. Ja, ik weet ook niet hoe dat werkt. Maar stel ik ging. Ik denk heel veel brochures. Denk ik ook en ik ging en, en, en.

404
01:08:23.052 --> 01:08:36.752
Een hoop marge en kickback en dat soort dingen. Ja, en aan het begin van de week te horen krijgen dat Egypte nog niet vol zit. Dus ook al komen mensen binnen voor Sri Lanka, Egypte is de shit. Maar goed, even cynisch.

405
01:08:37.132 --> 01:08:43.592
Maar ja, wat daar ook gebeurde was dat je als je naar een lokaal reisbureau. Ik maak hem even wat romantischer ging.

406
01:08:44.032 --> 01:08:50.851
Dat je die persoon van het reisbureau misschien nog tegenkwam in de supermarkt, op de, in de kroeg, op het terras. Jij denkt dat dit een essentieel element.

407
01:08:50.872 --> 01:09:04.752
Wat ik mooi vond aan wat je zei is oké, die, dat hyper kapitalisme, dat Booking.com heeft die hele mens mens relatie weg geoptimaliseerd. Maar wat je er nu voor terugbrengt is een halve mens relatie.

408
01:09:04.792 --> 01:09:12.532
Het is namelijk niet Pieter Zwart zelf, maar zijn kloon, hè. Dat is trouwens een beetje de term die nu in die industrie aan het ontstaan is.

409
01:09:12.972 --> 01:09:23.892
Er zijn allerlei apps aan het uitkomen nu die influencers beloven om zichzelf te kunnen klonen. We hebben die ook, maar dat dus het begint nu echt daadwerkelijk een beetje te komen. Mijn. Ja, dan staat er ook van.

410
01:09:24.472 --> 01:09:37.152
Praat maar met mijn kloon. Ja, het is heel. [lacht] Echt heel heftig. Uhm, dus ik, ik zit dan. We gaan dan van een soort wereld toe van. Laten we het even in drie, in drie, uh, stappen noemen.

411
01:09:37.472 --> 01:09:45.872
We hebben de tijd over geromantiseerd waarin we allemaal persoonlijk contact met elkaar hadden op een lokaal niveau. Of het nou de melkboer was of de reisagent.

412
01:09:46.952 --> 01:09:57.692
Toen gingen we toe naar een hyper technologische kapitalistische efficiency. Iedereen was alleen en iedereen werd zijn eigen reisagent achter de computer. Dus jij hebt gewoon die reisagent. Ja, de Booking.com tijd.

413
01:09:57.872 --> 01:10:06.652
Weggestuurd. Je bent achter de computer gaan zitten. Je zegt: laat mij maar bij elkaar klikken, ik doe het zelf wel. Ga maar weg. Ja. Ik pak die groenten zelf wel uit een doos. Weet je wat, ik laat het wel brengen.

414
01:10:06.692 --> 01:10:15.572
Alsjeblieft. Kijk me niet aan als je het brengt. Even heel erg hard gezegd. Stap twee en stap drie is al die mensen die we contact mee hadden brengen we niet terug, maar klonen van hen.

415
01:10:15.752 --> 01:10:23.892
[lacht] En dan gaan we de hele dag doen. En, en dit doet me een beetje denken aan, uhm, wat mij betreft de afsluitende anekdote.

416
01:10:24.372 --> 01:10:31.842
Niet dat ik het niet leuk vind, maar ik heb bijna het idee dat we dat we een tweede aflevering en nog tien kunnen maken over deze, want er zitten zoveel leuke onderwerpen in. Maar

417
01:10:32.852 --> 01:10:43.392
ik las ooit van een, uh, uit mijn hoofd prinses of daar iemand in een koning, in een koningshuis, ergens in het westen van de wereld.

418
01:10:44.232 --> 01:10:54.972
Die had zo'n verlangen naar het boerenleven, naar het simpele burgerleven, dat ze een klein dorpje in haar tuin heeft laten bouwen waar mensen daadwerkelijk wonen. Gewoon een. Dat is niet nu, maar dat is geweest.

419
01:10:55.532 --> 01:11:05.472
Ik kan nog wel eens uitzoeken wat, wat het verhaal precies is, want het is geen broodje aap. Uhm, zodat ze om de zoveel tijd even een weekje in dat dorp kon wonen. Gewoon als een burger.

420
01:11:06.092 --> 01:11:16.212
En als ze het dan weer zat was, ging ze terug naar het paleis, zeg maar. Klinkt echt als een fabeltje uit van 2.000 jaar geleden. Maar het is, het is recenter en het het is gebeurd. En voor mij, uh.

421
01:11:16.732 --> 01:11:27.872
Toch Michael Jackson ook die in de supermarkt af. Ja, die video. Als een gewoon mens. [lacht] Maar. Ging die in zijn eentje naar de supermarkt. Maar ja, ik weet niet als ik dan, uhm.

422
01:11:28.412 --> 01:11:34.872
Ja, ik zie dan een soort van in ja, ik ga, ik maak hem even. Het is een soort van Black Mirror kerstgedachte. Gaan we hem afmaken?

423
01:11:35.252 --> 01:11:46.392
Maar als ik dan aan tafel zit met allerlei met mijn reisagent en, en, nou ja, Kees van Coolblue en allemaal mensen. De kruidenier. Maar die zijn eigenlijk, het is een soort dorpje met acteurs of zo.

424
01:11:46.432 --> 01:11:56.492
Of mensen die voor mij werken om te laten voelen ja, geef me een. Ik heb dan misschien liever maar gewoon een lege tafel. Dat is tenminste echt zoiets. Ik vind het heel naar hoe je dit samenvat.

425
01:11:56.892 --> 01:12:00.692
Maar wacht even, ho, ho, we gaan nog even zo omhoog aan het eind.

426
01:12:01.652 --> 01:12:14.412
Wat zou het toch fijn zijn dat we alles weg automatiseren in de fabriek, in de dozen schuiven bij het verzendcentrum, het rondrijden van de pakketjes zodat iedereen tijd heeft om elkaar te zien.

427
01:12:14.872 --> 01:12:22.392
Dan moet het laatste wel gebeuren. En ik vind het dat dus dat je naar een reisbureau gaat en dat je zegt: ik ga gewoon naar een reisbureau, want ik heb er tijd voor.

428
01:12:22.832 --> 01:12:36.592
En er is iemand die daar zit die zegt: ik kan op drie knoppen drukken, alles gebeurt vanzelf. Tijd voor koffie. Ja, ja. Hoe vind je hem zo? Beter, hè? Ja, ja ja ja. Dit is een soort hybride, hybride utopie.

429
01:12:36.612 --> 01:12:45.672
Als we de AI gebruiken. Mooi. Om weg te automatiseren, de niet menselijke interactie, zodat we terugkrijgen wat we verloren zijn. Ja, ja. De menselijke interactie. Ja, ja. Ik doe mee. Ja.

430
01:12:47.352 --> 01:12:56.372
Nou, ik vind dat je dit toch nog aardig hebt. Even die kerstgedachte. Het is, het is. Ik, ik zou het niet tot een kerstgedachte [lacht] proberen, maar het komt in de buurt.

431
01:12:56.972 --> 01:13:10.212
En in deze dystopische podcast is dit al heel erg wat aan positiviteit. Uh, dank! Jij ook. Wietse, voor deze week weer. Wij gaan er een paar weekjes tussenuit omdat het dus kerst is. We zijn 9 januari weer terug.

432
01:13:10.932 --> 01:13:21.112
En wil je nog iets zeggen tegen de luisteraars zo op het op de valreep van het nieuwe jaar. Mocht er echt iets gebeuren waar Alexander en ik het idee van hebben hmmm, dit is wel heel belangrijk.

433
01:13:21.372 --> 01:13:30.552
Mogelijk doen we dan nog een noodaflevering. We beloven niks. Ja, we laten je niet in de steek. En noodafleveringen zijn heel populair in podcast land op dit moment. Er moeten.

434
01:13:30.972 --> 01:13:39.872
Ik, ik wacht wel op een moment dat we nog een noodaflevering moeten maken voor onszelf. Dus wie weet. Als we elkaar te veel missen Wietse, dan maken we gewoon een noodaflevering.

435
01:13:39.892 --> 01:13:50.772
Dat betekent dat we toch nog die kerstgedachte te pakken. Weet ik niet. Maakt niet uit. We zien het wel. Ja. Kijk wel even. Kan ook gewoon. Wanneer zijn we weer terug? 9 januari zijn wij weer hier. Tot dan. Dag.
