WEBVTT

1
00:00:00.100 --> 00:00:09.480
[alarm] Oh! Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.700
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.760 --> 00:00:39.920
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:54.520
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Voor je gaat luisteren heel even dit. In de nieuwe podcast Veldheren neem ik, Jos de Groot, jou iedere donderdag mee voorbij de frontlijn in Oekraïne.

6
00:00:55.000 --> 00:01:05.300
Dat doe ik samen met generaal buiten dienst Peter van Uhm en Mart de Kuijf. Zij hebben één duidelijk doel: aan jou uitleggen hoe oorlog werkt. Volg Veldheren in jouw favoriete podcastapp.

7
00:01:07.340 --> 00:01:33.880
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin wij, Wietse Hagen en ik, Alexander Klöpping, je bijpraten over de wondere wereld van AI.

8
00:01:34.100 --> 00:01:36.460
Het is history in the making op dit moment.

9
00:01:36.490 --> 00:01:48.640
Dat is de conclusie die Wietse aan het eind van deze aflevering trekt, nadat hij een vriend te woord heeft moeten staan aan de telefoon die softwareprogrammeur is en bij wie opeens de knop is omgegaan en constateert: kan ik deze baan nog wel langer doen?

10
00:01:48.660 --> 00:01:54.880
Want ik heb met ChatGPT gesproken en dit ding kan dingen waarvan ik niet van tevoren dacht dat ik het kon. Heb ik straks nog wel werk?

11
00:01:55.220 --> 00:01:59.160
En er is reden genoeg om jezelf dit soort vragen te stellen, want er is veel ontwikkeling. Ook deze week weer.

12
00:01:59.200 --> 00:02:10.180
Google introduceerde Google Gemini Ultra, Googles grootste taalmodel, een concurrent voor GPT4 en scoort in de benchmarks ongeveer even goed. Google is dus on par. We gaan het daar dadelijk over hebben.

13
00:02:10.300 --> 00:02:19.640
Verder lazen we een paper in Science waarbij een AI is getraind door de ogen van een mensenbaby om te kijken of een AI hetzelfde kan leren als een baby.

14
00:02:19.980 --> 00:02:30.000
En alsof dat nog niet gek genoeg was, gaan we het ook hebben over een zelfrijdende auto die in San Francisco in de fik is gegaan omdat het een robot, een AI op wielen is en de mensen daar niet altijd even blij mee zijn.

15
00:02:30.500 --> 00:02:45.220
Goed. Veel plezier! Wat me opvalt is dat ie, kan, kan ik zo, zo beginnen? Ja. [lacht] Wat me opvalt, dat lijkt me een uitstekende openingswoord. Wat mij opviel in het nieuws, uhm, nee, is dat,

16
00:02:46.260 --> 00:02:56.480
Gemini is nu of Bard, B A R D van Google. Laten we het vergeten. Ik heb het, ik heb het nooit gevoeld als, als. Bard is dood, hè? Bard is dood sinds deze week.

17
00:02:57.360 --> 00:03:10.980
En nu hebben we wat we kenden als Gemini al als taalmodel is ook de brand geworden van het hele product. Dus wat ChatGPT heet bij OpenAI heet nu Gemini bij Google. En wat me opviel is dat die interface van Gemini,

18
00:03:12.040 --> 00:03:23.080
die is heel erg een soort van Google defied ChatGPT interface. Dus de, oké, ik ben gewoon gefascineerd dat, uh, we hebben, ooit hadden we GPT van OpenAI.

19
00:03:23.400 --> 00:03:31.980
Text completion, zaten we mee te spelen in labs en toen dachten we al: wow, dit is best wel cool. En als je toen al een beetje slim deed, kon je daar al kracht uit halen. Toen hebben ze er een chatinterface

20
00:03:32.960 --> 00:03:41.780
gemaakt en ook het model getraind als chatmodel. Het was niet alleen maar een interface. En toen gingen we er ineens mee chatten en toen viel het kwartje bij ons allemaal, zeg ik dan maar even. Ja.

21
00:03:41.800 --> 00:03:51.760
Toen was, was, dat was een bombshell. Terwijl het eigenlijk een UI was en een iets anders getraind model. Maar dat interfaceje daarvoor heeft altijd gevoeld als een weekend hackathon interface.

22
00:03:51.800 --> 00:04:04.740
Daarmee bedoel ik: je hebt gewoon een chatje aan de rechterkant en aan de linkerkant een menuutje in donkergrijs, is waarschijnlijk een standard template die je ergens kan downloaden, maar dat, dat indelingje is, Google heeft het nu helemaal nagemaakt met Gemini.

23
00:04:04.880 --> 00:04:11.500
Met, met iets rondere hoekjes en het fontje wat Google het liefst overal gebruikt, gewoon dat rond fontje. Dat was waarschijnlijk een opdracht vanuit het management van Google.

24
00:04:11.540 --> 00:04:22.440
Maak ChatGPT na, daarna kijken we wel weer even. Ja, maar het is grappig, want, uh, ook Perplexity waar jij het wel eens vaker over hebt gehad. Inmiddels zijn zij veel verder geïtereerd. Ze zijn OpenAI voorbij. Ja.

25
00:04:22.760 --> 00:04:27.940
Maar ook daar begon het als een interfaceje wat overduidelijk het ChatGPT interfaceje is. Ja.

26
00:04:27.980 --> 00:04:37.960
En, nou, ik vind het grappig dat, ik snap het ergens wel, want ja, uh, als iemand dan iets anders probeert dan wil je eigenlijk misschien gewoon hetzelfde krijgen als je gewend bent en even kijken hoe het daar dan werkt.

27
00:04:38.480 --> 00:04:50.380
Maar ik vind het ook, ja, bijna een, uhm, je zou zeggen dat er bij Google wel wat mensen zitten die, die na zouden kunnen denken over iets meer dan een, dan een laffe kopie van de interface van, uh, OpenAI.

28
00:04:50.610 --> 00:04:59.780
Maar goed, je gaat nu de interface in, maar heb je het geprobeerd? Ja, heel kort. En? Dat is ook echt grappig. Nou, niet zo, niet echt onder de indruk, maar wel, kijk,

29
00:05:00.900 --> 00:05:17.420
ik dacht wel van: oké, want het nieuws is dus nu eigenlijk dat Bard is Gemini en, uh, Gemini komt in drie smaken, als, kwam in drie smaken, namelijk, uh, Nano, die inmiddels weet ik niet meer en dan Ultra en nu is het Advanced geworden.

30
00:05:17.870 --> 00:05:27.640
[lacht] Het Ultra-woord is weg. Het is echt een merk. Het is echt. Maar goed, je moet. Ongelooflijk. Het komt erop neer dat, OpenAI heeft twee smaakjes voor de eind-eindgebruiker.

31
00:05:27.760 --> 00:05:37.040
Oftewel als je niet betaalt krijg je GPT drie en een half en als je wel betaalt vier. En bij Google is het dan Gemini, ben ik vergeten, of Gemini Advanced.

32
00:05:37.100 --> 00:05:46.599
Misschien is het wel gewoon Gemini, niks, en dan Gemini Advanced. Nou, dat Advanced ding is, daar wachten we al, we al een tijdje op dat zou uitkomen begin dit jaar. Nou, dat is dus nu gebeurd.

33
00:05:46.660 --> 00:05:56.560
Dat is eigenlijk wat GPT4 zou moeten kunnen vervangen binnen de Google, binnen het Google ecosysteem. En dat doet het op bepaalde vlakken, maar op bepaalde vlakken ook niet. Dus.

34
00:05:56.620 --> 00:06:12.968
Wietse, laten we hier toch even bij stilstaan. Google heeftEen on par taalmodel als GPT4 uitgebracht. En, en jij doet daar nu een beetje een soort van ja, jeetje, het verrast niet, maar het scoort even goed als GPT4.

35
00:06:13.028 --> 00:06:24.348
Hiermee is Google on par met ChatGPT en dat zal niet lang duren, maar dit is toch wel even een momentje. Nou, het is, we hebben het natuurlijk vorige keer ook gehad over alle testjes die gedaan wordt en benchmarks.

36
00:06:24.428 --> 00:06:35.408
Daarop gaat het scor- scoort het goed. In mijn eigen tien minuutjes testen, dat is dan even, want ik, ik werk, uh, veel momenten op de dag met ChatGPT omdat ik programmeer samen met ChatGPT. Ja.

37
00:06:35.508 --> 00:06:45.408
Dat is mijn mentor, mijn maatje. Ja. En, uhm, ik ging heel eventjes Gemini Advanced gebruiken als mijn programmeermaatje. Toen dacht ik: nope. En toen, dat kan, dat voel je dan heel snel.

38
00:06:45.808 --> 00:06:55.408
Dus ik denk dat er mensen zullen zijn met use cases die nu al beter werken op Gemini Advanced. En mensen zoals ik die dingen doen die nog niet zo goed werken als wat, uh, OpenAI kan.

39
00:06:55.908 --> 00:07:18.348
Maar- Wat ik begrijp, en het is natuurlijk nog niet zo heel lang uit als we dit opnemen, maar wat ik begrijp is dat het inderdaad slechter is in programmeren dan ChatGPT4, dat het beter is in shit uitleggen, explainers en dat het, uh, goed is in het, uh, browsen van het internet en, uh, het bij, bij het antwoord trekken van bijvoorbeeld relevante plaatjes.

40
00:07:18.808 --> 00:07:31.588
Dus als er een, als jij een, een vraag stelt waar een diagram, uh, meer context biedt, dan is, uh, Gemini erg goed in dat erbij geven. Beter dan ChatGPT4, uh, dan, uh, GPT4.

41
00:07:33.268 --> 00:07:56.268
Ja, en ik denk wat natuurlijk de grote vraag is, en dat weten we met een maand of zes denk ik of zo, met een jaar kunnen we misschien echt zeggen is: is Google nu met hoestend en proestend met een hoop zweet en een hoop, uh, extra Red Bulletjes naast OpenAI komen rennen in die race en storten ze straks neer, want [Ivar lacht] wat hebben ze overal moeten geven, dat kan helemaal niet.

42
00:07:56.508 --> 00:08:07.708
Nu zijn ze moe. Of is het eigenlijk andersom? Was OpenAI al aan het hoesten en proesten? Ja. En rent Google straks gewoon heel relaxed door? Ja. En was het inderdaad een inhaalslag en gaan ze er nu gewoon voorbij?

43
00:08:08.028 --> 00:08:16.868
Daar ben ik wel echt heel erg nieuwsgierig naar, want ik kan het niet zo goed voorspellen moet ik zeggen. OpenAI verbaast me met dat ze nu iedere keer toch weer vooruitlopen.

44
00:08:16.958 --> 00:08:20.008
En dan kan je zeggen: ja, maar zij waren toch de eerste? Ja, dat zegt gewoon niet zo heel erg veel.

45
00:08:20.048 --> 00:08:25.488
Sterker nog, er zijn genoeg boeken over marktdynamieken die zeggen: je moet niet de eerste zijn, want dan ga je als eerste door de jungle.

46
00:08:25.528 --> 00:08:35.148
Met je zwaard moet jij alles doorsnijden en uiteindelijk lig jij op de grond, lopen ze over je rug heen, door jouw pad, over je heen. Hè, dus je, het is niet altijd het beste om de early mover te zijn, dus.

47
00:08:35.328 --> 00:08:41.488
Maar techniek en grote systemen, uh, werken gewoon anders. Dat zie je ook met s-social media.

48
00:08:41.568 --> 00:08:49.468
Daar heb je zo'n enorm, volgens mij heet het het Lindy effect of zo, dat is het effect dat als je eenmaal in een netwerk zit, kom je daar eigenlijk gewoon niet meer uit bijna. En dat is heel veel waard. Mhm.

49
00:08:49.648 --> 00:08:55.798
Daarom zijn de Facebooks en de Twitters gewoon niet, de X'en, niet verslagen nog. Mhm. Dus ik ben heel benieuwd of dat,

50
00:08:56.828 --> 00:09:07.228
wat, of hier in het, in die nieuwe AI, uh, wereld ook effecten zijn die wij niet, uh, nog niet kennen. Ja. Het voelt voor mij dat ik denk: ik moet het nog maar zien met OpenAI.

51
00:09:07.708 --> 00:09:18.908
Want wat maakt ze nou echt uniek, behalve dan dat ze zo, zo'n goed team hebben zitten? Waardevol, maar die kan je wegkopen. En dat ze vroeg waren. Ja, ik weet niet. Heel veel centjes.

52
00:09:19.188 --> 00:09:32.208
En, uh, inderdaad een extreem goed team. En, uh, alle aandacht van de hele wereld. En, uh, minder, uh, minder reguleringsdrang, uh, van overheden. En, uh, ik kan wel, ik kan wel een eindje doorgaan, hoor.

53
00:09:32.348 --> 00:09:45.328
Visionaire founder pitchen in plaats van, uh, [Ivar lacht] in plaats van een, ja, een, een, een CEO die de hele tijd, uh, ge-ge-ge-ge-bekritiseerd wordt omdat het geen oorlogstijd CEO zou zijn.

54
00:09:46.088 --> 00:09:47.608
Ja, jeetje, ik kan wel even doorgaan, hoor.

55
00:09:47.728 --> 00:10:16.667
Kijk, daartegenover staat dat, dat, wa-waar we nog steeds op wachten is dat dit geïntegreerd wordt in, uh, uh, in Drive en in, in andere Google, uh, producten, in Gmail fatsoenlijk, uh, zodat als jij vragen stelt aan een soort van omnibox, uh, Gemini-app, dus dat, uh, Gemini heeft, uh, d-er is nu een Android-app waar je Gemini als spraakassistent kan aanspreken en die dan ook out, die dan ook de, de hoofdspraakassistent van je Android-telefoon wordt, dus die de Google Assistant overneemt.

56
00:10:16.727 --> 00:10:27.228
Ook weer zo awkward, weet je, dat je dan een schermpje krijgt waar je dan moet kiezen: wil je nu praten met Google Assistant of wil je nu praten met Gemini AI? Dat je echt denkt: oh, fucking Google, get it together.

57
00:10:27.308 --> 00:10:37.248
Maar oké, uh. Dat zijn twee teams intern en niemand heeft nog gewonnen. Nee, en dan moet je even een, een modal boxje maken waarin de gebruiker, uh, gaat kiezen welke van de twee.

58
00:10:37.328 --> 00:10:43.148
En, uh, je kan ook niet alles met Gemini doen, dus voor sommige dingen moet je dan weer de Google Assistant gebruiken. Het is echt, argh.

59
00:10:43.608 --> 00:10:48.908
Hoe dan ook, dit zal allemaal tijdelijk zijn totdat we zijn op het moment dat dit allemaal fatsoenlijk met elkaar geïntegreerd is.

60
00:10:49.488 --> 00:11:00.368
En dan, uh, heb je een omnibox waar je eindelijk, uh, vragen aan kan gaan stellen als, uh, nou ja, het, het cliché is vaak voorbijgekomen, maar: wat is de code van de Airbnb locker box?

61
00:11:01.028 --> 00:11:13.748
En dat ie dan in je Gmail gaat opzoeken naar het mailtje wat je van je Airbnb-host hebt gehad waar dat antwoord in staat en dat je dat gewoon in die G, in die, in die Gemini-app of Assistant of wat het dan ook is kan vragen en dat ie je Gmail heeft doorzocht.

62
00:11:13.788 --> 00:11:23.388
Daar kijk ik wel echt naar uit, hoor, naar dat moment. Er zijn gewoon twee dingen die de hele tijd erboven hangen. Eén is dit, een soort van één AI-toegangspoort.

63
00:11:23.468 --> 00:11:32.268
Maakt me niet uit wat de vorm is, laat het een app zijn, maar gewoon: geef me een app die alles wat ik heb doorzoekt en, uh, daar dingen mee kan doen.

64
00:11:32.448 --> 00:11:42.168
Samenvatten, weet ik veel, uh, informatie ophalen, maar uit mijn e-mail, uit mijn Docs, uit mijn Slack, uit mijn, gewoon uit alles. Voor consumenten gewoon beschikbaar. Dat is één.

65
00:11:42.488 --> 00:11:51.928
En twee is: waar blijven die fucking agents? Waar blijft dat ding wat voor mij vliegtickets kan boeken? En het gaat mij niet om dat ik vliegtickets moet boeken, want dat is helemaal niet het punt.

66
00:11:52.048 --> 00:12:07.968
Maar gewoon een agent die op pad gaat en dat is nu, uh, uh, uh, uhm, uh, heeft Sam Altman in, in, in recent interview weer gezegd dat, dat OpenAI bezig is met het bouwen van agents die voor jou het web op gaan om, uh, dingen voor jou uit te voeren.

67
00:12:08.008 --> 00:12:16.608
Dit hangt boven de markt, weet je wel. En dit, we weten dat Google hiermee bezig is, want die hebben dit ook al publiekelijk gezegd. En Microsoft, uh, heeft ook publiekelijk dit gezegd.

68
00:12:16.628 --> 00:12:22.608
Dus dit gaat al, dit is de volgende race, zeg maar. Wie gaat hier eerst- Jij bent Arc Browser gebruiker, toch?

69
00:12:22.948 --> 00:12:32.834
Klopt.Want die hadden nu met, dat is Arc2 volgens mij, best wel een video erbij en zo van een launch van: we gaan voor jou browsen. Zij gaan dit doen. Zoals jij het nu beschrijft. Zij gaan het.

70
00:12:32.834 --> 00:12:41.084
Het was een, het is een video van wat ze, wat ze gaan doen. Want voor de luisteraar die de video niet heeft gezien, het is eigenlijk wat Alexander eerder met Perplexity al beschreef.

71
00:12:41.124 --> 00:12:55.684
En dat, je ziet het er een beetje naartoe bewegen nu, dat, dat interface waar ik het in het begin van, van deze aflevering over had, van dat, dat soort van grijze chat interface wat mensen die ChatGPT een keer geprobeerd hebben kennen en, uhm, waar nu Gemini zo erg op lijkt.

72
00:12:56.264 --> 00:13:06.944
Bij Perplexity, uh, gaat dat al verder en zie je al een soort V2 daarvan. Dat houdt in dat als jij zoekt op een recept, dan toont hij dat op een handige manier voor het lezen van een recept, hè.

73
00:13:07.004 --> 00:13:16.244
Dus je krijgt niet alleen maar tekst, plaatjes erbij, maar ook: hmm, dit is een recept, die moet je op een andere wi-manier weergeven dan een, uh, stappenplan om een sportoefening te doen. Nee, klopt.

74
00:13:16.324 --> 00:13:24.584
Dit doet Arc, dus de, de, een browser die gemaakt is door een onafhankelijke startup die je Chrome of je Safari of wat nu dan ook je browser is, vervangt.

75
00:13:24.864 --> 00:13:33.804
Ze hebben een mobiele app gemaakt voor iOS alleen, die webpagina's voor jou kan genereren. Dat, die is uit, die kun je proberen. Ga dat proberen, want dat is fantastisch.

76
00:13:33.884 --> 00:13:46.444
Je kan vragen stellen aan, uh, het is een soort van Perplexity, maar dan gratis en veel mooier vormgegeven. En het werkt heel erg goed. Als je, f, uh, Wikipedia-achtige antwoorden wil op een vraag die je hebt.

77
00:13:47.084 --> 00:13:58.604
In, in die situatie werkt het goed en zij zijn bezig met een webbrowser voor desktop in eerste instantie, die een agent is, dus die voor jou kan browsen en ook dingen kan doen voor jou.

78
00:13:59.204 --> 00:14:02.984
Dus de vraag is, ik, ik denk iedereen ga-, iedereen gaat agents proberen te maken.

79
00:14:03.124 --> 00:14:13.504
Google, Apple, Microsoft, de hele, hele zooi gaat proberen agents te maken en, en Arc is dan een browser die als onafhankelijke partij ook gaat proberen dit te doen.

80
00:14:13.524 --> 00:14:20.184
Maar ik, weet je, wij hebben het hier al zo lang over en ik zit de hele tijd [lacht] te denken: waar blijft het? Ja, want even van- Waar duurt het zo lang?

81
00:14:20.524 --> 00:14:29.144
Wat Arc dan dus belooft, is van: ik wil een, ik wil, uh, een boek, een boek kopen. Ja. En dan zie je die browser echt gewoon gaan browsen voor jou. Ja.

82
00:14:29.404 --> 00:14:39.024
En die gaat dan naar Amazon en die klikt op dat boek en die klikt ook op afrekenen en die voert je adres in. Uh, ja, alsof je een, uh, persoon hebt in huis, uh, die je kan vragen om voor jou te browsen. Ja.

83
00:14:39.124 --> 00:14:43.024
Dat is wat Arc in ieder geval belooft. En daar gaat het nu een beetje naartoe.

84
00:14:43.124 --> 00:14:51.984
En dat zou voor Google een logische zijn, want Google is én een zoekmachine én een browser én een operating system én een mobiel operating system én een hardwaremaker. Ja.

85
00:14:52.124 --> 00:15:01.724
En ze hebben AI, dus volgens mij liggen de kaarten- Fucking fix it! Ja, maar wat ik nu zit te denken tijdens ons gesprek is: kijk, niet alles is iets waar je gewoon geld tegenaan kan gooien.

86
00:15:02.084 --> 00:15:08.384
Gelukkig maar, anders zou de wereld er ook anders uitzien. Dan zouden echt, echt alleen maar de mensen met geld alles kunnen fixen en dat kan toch niet.

87
00:15:08.424 --> 00:15:18.324
In ieder geval niet binnen, uh, bedrijvigheid en zeker niet binnen de tech. Want, uhm, we hebben Google Video als voorbeeld. De tegenhanger van YouTube, is mislukt.

88
00:15:18.824 --> 00:15:29.924
Google had geld, Google had engineering talent, Google had een knopje Video in google.com en nog moesten ze YouTube kopen. Ja. Uhm, Google Circles, Plus, ik weet niet eens meer hoe het heet, maar hun Facebook.

89
00:15:30.014 --> 00:15:40.264
Google Plus, ja. Ja, Google Plus, daar zaten cirkels in volgens mij. Maar goed, dan- Ja, klopt. Hun antwoord op Facebook: mislukt. Uh, wat hadden we nog meer? Een tegenhanger, Knol of zo als tegenhanger van Wikipedia.

90
00:15:40.304 --> 00:15:49.704
Ik ben het allemaal ergst, ik wil het eigenlijk niet meer weten dit allemaal. Maar Google heeft dus echt, echt, s-hel-helikopters vol diamanten gegooid op deze projecten en het is gewoon niet gelukt.

91
00:15:50.194 --> 00:16:00.784
En daar ben ik blij mee, want, hè, dat betekent dus dat het niet genoeg is. Je moet meer hebben. Maar we hebben ook Google Chrome, hè, de poging van Google om een eigen browser te bouwen. Nou, dat is wel gelukt.

92
00:16:01.624 --> 00:16:09.844
We hebben Android. De poging van Google om een mobiel operating system te bouwen, is ook wel gelukt. Gmail, de poging van Google om Hotmail weg te blazen, is gelukt.

93
00:16:10.344 --> 00:16:23.804
Dus laten we, we kunnen lachen wat we doen om Google, maar soms lukt het. Mhmm. En ik denk dat onze grote vraag nu is: is dit Gemini-ding nou Gmail of Google Plus? Ik weet het niet. We gaan het zien.

94
00:16:24.004 --> 00:16:32.283
Over een jaar denk ik dat we het wel ongeveer weten, want v-bij Google Plus voelden we het al heel gauw, [lacht] weet ik nog. Eigenlijk al meteen. Maar goed.

95
00:16:32.344 --> 00:16:43.654
Ja, voor mij maakt, voor mij is het echt het verschil tussen: is het een aparte app, uhm, en waar je, waar je, w-wat dezelfde functionaliteit als ChatGPT, of, of, uh, is het geïntegreerd met andere Google services?

96
00:16:43.684 --> 00:16:50.564
Want dat is het moment dat het begint te leven voor mij. En ik denk ook voor de meeste mensen. Want nu, ze hebben het nu in Google One gevouwen.

97
00:16:50.604 --> 00:16:58.504
Dat is hun, uh, ja, betaalde tier waar je dus extra schijfruimte in je Google Foto's, extra schijfruimte in je Gmail.

98
00:16:58.564 --> 00:17:05.864
Het is het ding wat je neemt als een service van Google die je veel gebruikt, zegt: je schijfruimte is op. Dat is het moment dat mensen Google One nemen.

99
00:17:06.264 --> 00:17:19.424
En het is gewoon een bundel van allerlei Google-producten waar zij nu advanced hebben ingedouwd. Ook weer $20 per maand. Ook weer allerlei, uh, add-ons erin zoals, uh, zoals, uhm, zoals anderen dat ook proberen.

100
00:17:19.484 --> 00:17:26.703
Gewoon niet alleen maar het taalmodel van ChatGPT, maar ook allerlei storage space en weet ik veel allemaal. Notion probeert dit. Dropbox probeert dit.

101
00:17:27.424 --> 00:17:41.604
Uhm, en de vraag is, uh, uh, mens, ik denk dus dat mensen, dat, ik denk dat je schijfruimte, extra schijfruimte gaat nemen bij Google omdat die vol is. Maar ik denk niet dat je AI gaat nemen omdat het er gewoon is.

102
00:17:41.704 --> 00:17:49.724
Het, je moet ergens een limitatie tegenkomen die je kan over, hoe zeg je dat, waar je overheen kan springen door een bepaalde service te nemen.

103
00:17:49.764 --> 00:18:01.504
En dat gaat, dat gaan we voelen denk ik in, in de Google-producten die we iedere dag gebruiken. Zodra dat- Ik denk dat, ik, ik zit te denken dat uiteindelijk je, wat ik, hoe het voor mij meetbaar zou zijn.

104
00:18:01.784 --> 00:18:12.944
Kijk, in mijn eigen leven is het: hoe vaak per dag open ik nog ChatGPT of ga ik ineens naar de, naar Gemini? Want als dat ding sneller, beter, uh, kan programmeren, dan, ik ben niet loyaal. Ja. Gewoon niet.

105
00:18:13.224 --> 00:18:19.904
Ik wil gewoon snel gaan en dat het goed is. En als het mij ook nog beter dingen kan uitleggen, dan ben ik gewoon om. Doei, OpenAI. Ja. Maakt me niks uit.

106
00:18:20.084 --> 00:18:25.684
Klik ik aan de ene kant cancel en aan de andere kant klik ik op subscribe. Zo hard is het op, op, met subscription services. Ja.

107
00:18:26.204 --> 00:18:43.552
Uhm, maar dat ben ik dan met mijn, met mijn redelijk specifieke use case.Ik zit wel te denken dat de gemiddelde, er bestaat nooit een gemiddeld mens, maar die nu OpenAI opent, dagelijks of wekelijks, de app op hun telefoon en ze betalen niet, maar ze hebben wel die app en daar doen ze soms vragen aan stellen.

108
00:18:43.592 --> 00:18:48.972
Ik heb de cijfers niet, maar als ik OpenAI hoor gebeurt dit heel veel en hebben ze ontzettend veel daily users.

109
00:18:49.572 --> 00:19:02.932
Kijk, als die mensen die app niet meer gaan openen en gewoon met de assistant gaan praten om dezelfde vragen te stellen, dat zou mijn, dat is de meetbaarheid voor mij of het gelukt is bij Google of, of het Gemini-project inderdaad, uh, aanslaat.

110
00:19:03.271 --> 00:19:15.792
Want als zij op een, uh, Google I/O gaan zeggen dat ze zoveel queries doen, ja, het zal allemaal wel. Ik wil weten: gaan mensen inderdaad niet meer OpenAI, de website of de app openen? Want het hoeft niet meer. Ja.

111
00:19:16.432 --> 00:19:24.532
En dan komt daar Apple dan met hun Siri Plus slash Siri, Super Siri dan nog een beetje achteraan, ge, uh. Ja, ja, kijken we even dat, dat Apple, Jezus.

112
00:19:25.072 --> 00:19:38.592
Ja, ik zag dus, uh, Sa-Sam Altman in een interview zeggen dat hij een WhatsApp-groep heeft met een aantal founders, uh, in Silicon Valley en dat ze een weddenschap hebben lopen in die WhatsApp-groep met de vraag:

113
00:19:39.772 --> 00:19:46.992
w-w-welk jaar zal het eerste bedrijf er zijn met tien mensen of minder personeel wat meer dan een miljard waard is?

114
00:19:47.952 --> 00:20:31.232
En, uh, dit is dan een, een lopende weddenschap die ze hebben en de, de, de, de gedachte erachter of de, de, de implicatie van die vraag is: wanneer is er, wanneer zijn AI-agents goed genoeg dat je ze, dat je een soort van een marketing agent hebt die, of weet ik, misschien veel specifieker, een AdWords conversie marketing agent hebt en een, uh, brand marketing logo generator of weet ik veel andere brandmeuk genererende agent en een agent die al je accounting doet en al je, dus een soort van hele boom aan allemaal agents die het werk doen waardoor je minder mensen nodig hebt, waardoor je met minder mensen een veel waardevoller bedrijf kan bouwen.

115
00:20:31.542 --> 00:20:43.892
W-- dit gaat gebeuren, is de aanname. De vraag is: wanneer gaat dit gebeuren? Ik vind het wel een vette, uh, framing om, uh, uh, ja, om de, om de, om de vooruitgang te, te, te, te schetsen.

116
00:20:43.932 --> 00:20:55.832
En dan, je komt dan op het punt van, van daadwerkelijke hyperkapitalisme, waarbij het erom gaat: v-van wie is de domeinnaam? Van wie is het App Store account en van wie is de brand?

117
00:20:56.372 --> 00:21:07.072
Die persoon stuurt de tienduizend agents aan eronder en is uiteindelijk degene waarbij de bankrekening gevuld wordt. Ja. Even in een soort absurde, maar dat is natuurlijk waar we het eigenlijk over hebben. Ja.

118
00:21:07.232 --> 00:21:23.552
En dat, en dat gaat wel, uh, bijzonder zijn, ja, want dan, dan krijg je dus die, nou, ik moet zeggen, dat vind ik wel grappig, dat het ook nog eens een WhatsApp-groep is, want WhatsApp staat er dan, dit heb ik nooit kunnen verifiëren, maar bekend om dat voordat zij verkocht werden voor een miljard of meer, dat er maar achttien mensen werkten of zo.

119
00:21:23.632 --> 00:21:30.612
Volgens mij hadden ze achttien engineers die de hele boel ophielden. Waarschijnlijk werkten er toen al wat legal en zo, maar. Ja, maar geen revenue. Ja.

120
00:21:30.672 --> 00:21:37.462
Ja, maar dan is wel de, de waarde van het bedrijf wel hoog natuurlijk, hè, voor, w-- hoe is die weddenschap precies bepaald? Ik bedoel, dus wat, wat ervoor betaald wordt bij openbaren.

121
00:21:37.462 --> 00:21:44.632
Volgens mij zit er wel een element van revenue in. Oh. Uh, ja, dus, uh, dat is, ik denk dat ze zeggen: één miljard omzet per jaar.

122
00:21:45.952 --> 00:21:54.012
En, uh, dus revenue moet er wel onder, want het is niet zo dat- En hij heeft geen, uh, screenshots geshared van, uh, hoe de poll nu loopt, zeg maar [lacht]. Hoe zitten de balkjes?

123
00:21:54.952 --> 00:22:04.092
Maar het is ook, weet je, het is ook nog in de dynamiek waarin iedereen toegang heeft tot die, tot die taalmodellen en iedereen agents kan maken.

124
00:22:04.212 --> 00:22:13.132
Dus het is ook, het is, het is, het is niet zo van: dit is een proprietary taalmodel waar alleen maar één persoon toegang toe heeft en die kan vervolgens dat bedrijf bouwen.

125
00:22:13.232 --> 00:22:16.032
Nee, het is ook nog eens in een wereld waarin iedereen dat kan doen.

126
00:22:16.092 --> 00:22:31.652
Wat de, de, weet je, in, in een, in een marktdynamiek waarin iedereen dan vervolgens gaat proberen om met zo min mogelijk mensen, me-medewerkers zo rijk mogelijk te worden, om het maar even heel erg flauw plat te slaan, uh, is het nog moeilijker om die, om dat doel te bereiken.

127
00:22:32.392 --> 00:22:41.772
Ja, behalve dus voor die bedrijven die dat enorme netwerkeffect hebben. Want we zitten natuurlijk nu, zeg maar, in een, in een ultieme vrije markt, zou je zeggen. Iedereen heeft zijn eigen kraampje, iedereen kan meedoen.

128
00:22:41.952 --> 00:22:50.732
Heel de tijd goed op je rug letten wie er achter je aanrent, want je kan ieder moment weggeconcurreerd worden door een, door een, uh, meisje van zeven die op een betere manier iets koppelt en, uh, de App Store account beheert.

129
00:22:50.932 --> 00:22:52.152
Ja. Uhm, maar

130
00:22:53.112 --> 00:23:03.752
sommige zaken, als die eenmaal staan, dan staan ze nou eenmaal en dan zijn het een soort, is het een soort Japanse, uh, hoe heet dat, uh, kers of zo [lacht] heet dat, vreselijk spul wat je niet in je achtertuin moet hebben.

131
00:23:04.572 --> 00:23:11.231
Uhm, ik ben het even kwijt, maar dat wil je, als je het eenmaal in je tuin hebt, kan je het echt vergeten. Dan moet je gewoon je a-tuin gaan afgraven. Bamboe.

132
00:23:11.732 --> 00:23:23.592
En dan moet je, ja, dan moet je platen aan de zijkanten erin, uh, in gaan slaan en dan, nou ja, moet je het eigenlijk, uh, helemaal afgraven. Ja, Japanse duizendknoop. Ja, ik ben er, zo. Fijn, fijn dat we dit weten.

133
00:23:23.792 --> 00:23:30.692
Ja, mijn assistent deed het niet, maar ik weet niks meer [beiden lachen]. Wat je niet gebruikt, verlies je, hè. Ik weet niks meer. Maar

134
00:23:31.692 --> 00:23:42.412
dat sommige in, in, laten we zeggen sommige projecten, of het nou een bedrijf is of een idee, dat zijn echt een soort, uh, Japanse duizendknopen, dus die zijn dan wel moeilijk om te blazen als één iemand die bezit.

135
00:23:42.512 --> 00:23:50.852
D-dat zie je nu een beetje met X, zeg maar. Wat je er ook mee doet, op een of andere manier is die stuk blijven. Hij krijgt het maar niet verneukt. Nee [lacht], hij is bijna niet meer kapot te maken blijkbaar.

136
00:23:51.312 --> 00:24:05.392
Goed, in ander nieuws: ik zag dat in Science er een paper is gepubliceerd van een, een paar wetenschappers van de New York University en, uh, zij gingen in op de vraag: hoe zouden we AI-modellen moeten trainen?

137
00:24:05.992 --> 00:24:15.292
Namelijk geven ze in één keer een hele bak met, uh, data om van te leren, om op te trainen. Dus in één keer krijgen ze heel veel informatie tot hun beschikking.

138
00:24:15.372 --> 00:24:50.200
Of moeten we eigenlijk AI, uh, wat kunstmatige intelligentie betekent, waarbij we mensen proberen na te doen, die manier waarop mensen leren, namelijk je begint met nul en langzaam krijg je een steeds beter idee van de wereld, omdat je als baby, weet je, heel langzaam eigenlijk, uh, of heel snel, zo zou je ook kunnen zeggen, uh, heel veel ziet van de wereld en zo train je, hebben zij gekeken: kunnen we een AI-model niet op zo'n hele grote bak met data trainen, maar kunnen we, uhm, daadwerkelijkEen AI trainen op het leven van een baby.

139
00:24:50.260 --> 00:25:04.880
Wat zij hebben gedaan Wytse is, uh, in een baby, uh, die heet, uh, Sam. Vanaf, uh, zes maanden totdat hij 25 maanden was, heeft hij wekelijks een uur lang met een camera op zijn hoofd gelopen.

140
00:25:05.060 --> 00:25:11.100
Dat is een, dus zo'n, uh- Even voor het, het is een mensenkind. Ja, mensenkind. Een daadwerkelijk levend, uh, levend- Daadwerkelijk levend kind.

141
00:25:11.140 --> 00:25:21.400
Heeft ongeveer 1% van de wakkere uren dus een camera, uh, op zijn hoofd gehad. Die registreerde alles wat hij zag en hoorde. Dus die speelde met speelgoed of die liep in het park.

142
00:25:21.460 --> 00:25:23.780
Of die was met een, weet ik veel, huisdier aan het spelen.

143
00:25:24.180 --> 00:25:38.680
Die opnames zijn getranscribeerd en gevoed aan een AI die zo was ingesteld dat, uh, het begreep wat welke woorden en, uh, dus welke audio en welke visuele dingen aan elkaar gerelateerd, uh, w-waren.

144
00:25:38.700 --> 00:25:42.720
Die, die twee maakte, kon hij een connectie tussen maken, maar verder werd hij aan het lot overgelaten.

145
00:25:42.740 --> 00:25:57.079
Had verder geen instructies en, uh, moest soort van uit die chaos van, uh, van, van beelden die het uit het niets kreeg en audio daar, ja, uh, hoe zeg je dat, uh, iets van proberen te bakken, zullen we maar zeggen. Ja.

146
00:25:57.600 --> 00:26:10.380
En ondanks die, uh, beperkte trainingsgegevens was de AI in staat om objecten uit te pikken en de bijbehorende woorden te leren. Dus puur op basis van audio en, uh, en, en het beeld uit de ogen van de kleine Sam.

147
00:26:11.460 --> 00:26:20.360
En vervolgens vroegen ze aan het model om objecten te identificeren die, uh, Sam ooit in zijn leven had gezien, zoals een stoel in zijn huis of een van de ballen waar Sam mee speelt.

148
00:26:20.920 --> 00:26:32.160
En uit een lijst van vier opties, zo quizden ze als het ware de AI, had het model het jui- het bij het juiste eind in 62% van het, van de, v-van, van de, um, [klikt met tong] keren.

149
00:26:32.560 --> 00:26:43.360
Um, en dat is dus beter dan gewoon maar gokken, want dan zou je een kwart goed hebben. Uh, dus 62% was goed en dat was, uh, g-, tot grote verrassing van die, van die onderzoekers.

150
00:26:43.440 --> 00:26:50.940
En ze waren ook nog eens, uh, blij verrast dat het ding dus ook dingen kon identificeren die Sam helemaal nog nooit gezien had.

151
00:26:51.500 --> 00:27:06.040
Dus blijkbaar door gewoon naar de wereld te kijken als een kleine baby en, uh, via je oren en je ogen te registreren was je ook in staat om gerelateerde dingen, dus ballen die Sam nog nooit gezien had, kon het ding er ook uitpikken.

152
00:27:06.920 --> 00:27:23.320
En dan ben ik benieuwd, want, uh, toen je begon dacht ik: dit gaat heel erg over, uhm, dat ze wilden weten en ze kunnen misschien niet-- ze kunnen meerdere, dat is het mooie van zo'n experiment natuurlijk, of zo'n setup, dat je conclusies, tot conclusies kunt komen die je helemaal niet van tevoren had voorzien.

153
00:27:23.360 --> 00:27:31.260
Dus ik weet niet hoe breed het ingezet is, maar ik zit te denken dat, uhm, ik dacht dat, dat wat ze wilden weten was: is het zinvol om het in stappen te doen?

154
00:27:32.240 --> 00:27:41.200
Dus dat je niet zoals in The Matrix zegt: joh, geef mij het, uh, programma voor een helikopter, brrrt, en het staat erop. Maar dat je beter in iteratief kunt leren. Ja. Een soort stacken. Ja.

155
00:27:41.280 --> 00:27:46.140
[lacht] Uh, en dat is natuurlijk wat je kunt-- maar wat ik nu eigenlijk hoor is meer dan de embodiment.

156
00:27:46.600 --> 00:27:59.120
Dus het idee, uh, daar is een hele, uh, heel veld van, van: je moet, als jij een robot wil leren of een AI wil leren voetballen, dan moet je die, moet je die dingen tonen van, van de camera, een GoPro van een voetballer in een veld.

157
00:27:59.220 --> 00:28:07.960
Mhmm. En niet bijvoorbeeld een camera van bovenaf. Want je wil eigenlijk dat je de wereld ziet door de ogen van een voetballer. Mhmm. Dus dan ben je eigenlijk embodied- Ja.

158
00:28:07.980 --> 00:28:21.160
In dit geval in een, dus-- maar ging het nu om het stapelen van een soort van iteratief rustig opstarten, leren en/of het daadwerkelijk leren vanuit het perspectief van hoe een kind of bijvoorbeeld een voetballer leert?

159
00:28:21.340 --> 00:28:30.860
Goede vraag. Ik denk dat, uh, de, dat weet ik niet. Ik denk dat ze, uh, aan het proberen zijn om te kijken of er andere methoden zijn om een AI te leren anders dan gewoon een enorme dataset op ze te storten.

160
00:28:31.280 --> 00:28:58.620
En ik weet ook niet of dit nou een, uh, helemaal geslaagd experiment was, want aan het eind van de, van de rit was Sam nog steeds slimmer, na die 25 maanden, was Sam nog steeds minder als in zijn woordenschat was groter, uh, en taalvaardigheid was beter, uh, dan de AI aan het einde van de rit dus, uh, ik, ik neem aan dat ze proberen om te kijken of er andere methoden zijn om AI te laten leren waardoor de, de, de, de resultaten, uh, be-beter worden.

161
00:28:58.680 --> 00:29:10.860
Ja, want er zit voor mij een soort, uh, ook weer een andere fascinatie in dat ik denk: evolutie, en wij zijn allebei een resultaat van het evolutionair proces, in ieder geval in wat ik persoonlijk als subjectief wereldbeeld ervaar.

162
00:29:11.340 --> 00:29:19.720
Uhm, mag je je eigen invulling aan geven in je leven gelukkig. Dan, evolutie heeft niet per se de beste oplossingen gekozen. Ik bedoel, je hebt nog een blinde darm, een soort stukje staart.

163
00:29:19.760 --> 00:29:24.980
Het is allemaal niet heel best, maar het is nog steeds fantastisch dat we hier zitten, uh, desondanks.

164
00:29:25.540 --> 00:29:47.480
Uh, maar dat betekent niet dat wij het meest efficiënte zijn, hè, of dat er niet dingen anders ontworpen hadden kunnen worden, bij wijze van, is een gevaarlijk woord in evolutie, maar, uhm, maar het is ook al vaker gebleken dat wij, de mensheid, met een soort hubris, ge-, arrogantie dachten: ja, uh, natuurlijk, als je het optimale leersysteem zou maken, zou dat nooit iteratief leren.

165
00:29:47.700 --> 00:29:55.740
Dat doen wij alleen maar omdat dat brein gewoon anders niet, kan je niet geboren worden. Je moet later pas groot worden, zeg maar. Dus wij moeten wel klein beginnen en groot eindigen, zeg maar. Ja.

166
00:29:55.770 --> 00:30:01.640
Qua grootte van lijf, maar ook qua grootte van brein. Want het brein ontwikkelt natuurlijk in, uh, van iets naar heel veel, van niets naar iets.

167
00:30:02.240 --> 00:30:10.750
En het kan, dan is het al heel vaak gebleken van: nee, eigenlijk heeft dat bijvoorbeeld iteratief leren of klein beginnen en groot eindigen- Het juiste zin. Ja, dat moet je juist doen. Ja.

168
00:30:10.760 --> 00:30:24.550
Dus, en dit, dit vind ik, dat heb ik bij mezelf ook al een aantal keer gemerkt dat ik over gewoon mijn eigen domme ideeën had over dingen en dacht: o, dat zal wel, hè, als ik het kan engineeren en ontwerpen, dan, dan sla je die drie stappen over, want dat doet echt alleen maar biologie zo dom.

169
00:30:24.580 --> 00:30:30.100
Ja, ja, ja, ja. En dan blijkt het ineens allemaal voordelen te hebben. Uh, dus ik, daarom vind ik dit echt een interessant onderzoek.

170
00:30:30.160 --> 00:30:41.760
Ik was bij een, uh, ouderavond op een basisschool en, uh, toen ging het over mediagebruik door kinderen. Uh, dat was heel breed. Het ging over allerlei sociale media, maar het ging ook even over AI.

171
00:30:42.450 --> 00:30:55.600
En toen was daar een onderzoeker en die zei, uh, dat ie denkt dat het, dat het pas verstandig is om ChatGPT in het leven van kinderen te introduceren als ze een jaar of 11 zijn, uh, 12 bijna, naar de middelbare school gaan.

172
00:30:56.180 --> 00:31:10.736
Omdat het niet verstandig is om een kind eerst, uhm, uh, soort van te laten wennen aan, aanIets wat zoveel kan genereren, zoveel plaatjes kan genereren, zoveel tekst kan genereren als je niet daarvoor de stappen hebt gezet.

173
00:31:11.676 --> 00:31:22.236
Boekjes lezen, zelf woorden schrijven, zinnen beginnen te schrijven. Een soort van begrijpen dat er coherentie moet zitten tussen tussen paragrafen.

174
00:31:22.276 --> 00:31:32.836
Nou ja, gewoon de hele de hele rit van het schrijven naar het schrijven van een werkstuk of een artikel of ik weet niet wat, wat precies je capaciteit moet zijn als je net naar de middelbare school gaat.

175
00:31:33.376 --> 00:31:45.476
Maar dat dus verstandig is om kinderen te onthouden [lacht] van die, van die, van die kunst, van het goed, ja, van het het. Ik weet niet of het nou prompt. In ieder geval

176
00:31:46.596 --> 00:31:51.436
hen helpen inzien dat het allemaal automatisch kan lange stukken tekst te schrijven.

177
00:31:51.836 --> 00:32:00.766
Toen dacht ik ook voor het eerst toen, dat was wel een moment dat ik me voor het eerst realiseerde o ja, dit is helemaal niet per se verstandig om te beginnen met, met ChatGPT.

178
00:32:00.836 --> 00:32:09.856
Ook al heb ik heel erg die neiging als ouder om, om dat nieuwste dan te laten zien. Want dit is, dit is wat er allemaal kan. Ik denk het is echt grappig, want het doet me heel erg denken. De discussies.

179
00:32:10.076 --> 00:32:14.076
Vorige aflevering had ik het over je laat een kind geen kilo suiker opeten op een verjaardag.

180
00:32:14.086 --> 00:32:22.616
Of in ieder geval als je dat ziet gebeuren, dan zou je die zak suiker puur suiker gewoon straks even pakken van joh, je hoeft niet eens neem een banaan, maar kom op nou, een kilo suiker te gaan zitten eten.

181
00:32:22.656 --> 00:32:30.616
Dat dat ik intuïtief denk dat veel ouders en misschien mensen die niet eens kinderen hebben denken nou doe maar niet joh, dat is een beetje gek. Of een blikje Red Bull bij een baby.

182
00:32:30.736 --> 00:32:36.396
Moet je gewoon niet doen joh, is een beetje gek. Nou dat, dat, die intuïtie is er volgens mij wel bij veel van ons en.

183
00:32:36.436 --> 00:32:46.956
Maar als ik dus eenmaal dat ga proberen toe te passen op het digitale media consumptie ding, dan ontstaan er allerlei hele, soms best wel pittige discussies om mij heen. Maar nu jij dit zo vertelt denk ik

184
00:32:47.876 --> 00:32:53.856
hoe zit het eigenlijk met de kijkwijzer? Om maar even een, iets erin te gooien? Want we hebben natuurlijk, die heet volgens mij de kijkwijzer toch?

185
00:32:53.866 --> 00:33:03.916
Alle leeftijden heb twaalf plus, zestien plus, misschien zelfs achttien plus. Weet ik niet. Ja, klopt. Omdat we op een bepaalde manier hebben bedacht als het om volgens mij dan films en series. Of is dat video breed?

186
00:33:04.076 --> 00:33:11.836
Of is het alleen maar films en series? Weet ik niet zo goed. Iets wat op tv kan komen of op YouTube denk ik dan. Daar kan een, daar kan een kijkwijzer aangehangen worden.

187
00:33:12.276 --> 00:33:22.236
Ergens in het TikTok YouTube tijdperk zijn we dat kwijtgeraakt denk ik, want ik heb nog nooit een twaalf plus logootje wat ze zo mooi hebben. Ze hebben natuurlijk van die stickertjes gemaakt met logootjes.

188
00:33:22.256 --> 00:33:31.116
Heb ik nog nooit. Niet per YouTube video staat er zo'n ding bij. Nee. Nee. Wat inmiddels met AI vrij makkelijk zou kunnen denk ik. Dus als zij zeggen er zijn te veel YouTube video's.

189
00:33:31.496 --> 00:33:39.376
Onzin, want volgens mij kan je gewoon een model trainen en zeggen dit zijn 3.000 dingen die twaalf plus zijn. Plak hem er nu maar standaard op. Maar die. Maar die kijkwijzer.

190
00:33:39.556 --> 00:33:46.956
Ik merkte in discussies dat dat die kijkwijzer die brengt, dat die maakt, wat los bij mensen. Maar daar heb je dus die dat spectrum in van ouders die ik dan om me heen ontmoet.

191
00:33:47.356 --> 00:33:53.556
Waarbij je hebt joh, laat het maar zien, dan zien ze het ergens anders. Zoiets. Dan ben ik er tenminste bij of zo. Kan ik nog duiding geven. Vernieuwend af.

192
00:33:54.236 --> 00:34:05.236
Of ouders die echt zeggen ik zet echt een filter net op mijn internet. Ik ben erbij, computer staat beneden of iPads zijn altijd beneden, niet mee naar boven, dat soort dingen. En ik denk dus dat het ChatGPT-verhaal.

193
00:34:05.316 --> 00:34:09.496
En wanneer laat je een kind praten met een bot, in welke vorm dan ook.

194
00:34:10.056 --> 00:34:21.176
Snapchat, waar we het eerder over hebben gehad, vind ik wel een boeiende, want op zich is het niet iets nieuws voor ons om te zeggen: nou, sommige dingen misschien even nog niet, daar hebben we allerlei dingen voor, zoals een kijkwijzer.

195
00:34:21.736 --> 00:34:34.796
Maar tegelijkertijd. Hartstikke verboden onder de dertien. Dat is gewoon bij wet verboden. ChatGPT in Nederland. TikTok. TikTok. En zo heeft YouTube ook een leeftijdsgrens ingebouwd. Ook.

196
00:34:36.356 --> 00:34:46.256
Ja, ik denk volgens mij zijn dit soort. Want dat is eigenlijk verwerking van data en dat mag gewoon niet door bedrijven voor kinderen onder de dertien. O ja, ChatGPT ook, zie ik nu inderdaad.

197
00:34:46.616 --> 00:34:53.696
Ja, dat is dan binnen de Amerikaanse context, maar ik kan me dan voorstellen dat redelijk vertaald naar Europese Unie. Maar goed, daarna.

198
00:34:54.336 --> 00:35:05.296
Ja, dat sluit dus ook wel redelijk aan op die persoon die er dan bij was die avond waar jij het over hebt. Die zei elf dan, maar dat komt dan een beetje eigenlijk volg gewoon met min twee ongeveer wat de wet is dan toch?

199
00:35:05.936 --> 00:35:19.396
Nee, hij ging. Hij ging voornamelijk uit van welk, welke type computergebruik is oké voor welke leeftijd en hoeveel schermtijd is oké voor welke leeftijd. En dus je je, je kan dingen juridisch benaderen.

200
00:35:19.416 --> 00:35:29.936
Dat kan en waarschijnlijk is dat juridisch ook wel gebaseerd op onderzoek. Maar je kan ook gewoon kijken wat is goed voor het kind. Dat is misschien nog een andere dimensie en die is misschien ook iets preciezer. En

201
00:35:30.856 --> 00:35:42.576
ja, ik had, ik had er gewoon niet eerder over nagedacht dat je zoiets kan doen als een leeftijdslimiet opleggen voor het gebruik van, ja, in dit geval ChatGPT. En dat is dan met name gericht op het doen van huiswerk.

202
00:35:43.516 --> 00:35:51.576
En, en, en. Die spraakassistenten die in Snapchat zitten is weer een heel ander verhaal natuurlijk. Soort van. Wanneer vind je dat oké dat je kind gaat praten met.

203
00:35:51.836 --> 00:36:04.336
Of misschien nog concreter die Khanmigo waar we het heel lang geleden een keer over hebben gehad. Dat is de op ChatGPT gebaseerde AI-assistent binnen Khan Academy om via software te leren. Ja.

204
00:36:04.616 --> 00:36:11.076
Die is helemaal bedacht, ook voor een kind. Je hebt bijvoorbeeld een batterij. Ja. Dus je mag niet te veel vragen, anders gaat de batterij leeg. Vind ik al een hele leuke.

205
00:36:11.216 --> 00:36:14.696
Dus dan moet je een beetje goed opletten wanneer je die Khanmigo dan inschakelt.

206
00:36:15.256 --> 00:36:26.456
Maar ik ben dus benieuwd of je daar dan, als we daar dan van zeggen: nee, maar als het Khanmigo is gewoon ChatGPT op de achtergrond met een system prompt en een batterijtje of iets meer dat mag dat dan ineens wel of zo?

207
00:36:26.696 --> 00:36:35.116
Ik denk het wel. Ja, maar alleen maar omdat er een andere system prompt is. Natuurlijk, het maakt toch, maakt toch fundamenteel andere ervaring dan schrijf voor mij.

208
00:36:35.276 --> 00:36:45.526
Dan is het voor jou toch een kwestie van mocht je dat beslissen van ik, ik, ik voel wel iets voor dat idee om ChatGPT niet zomaar aan mijn kinderen te geven. Ik wil eerst even een system prompt zelf schrijven.

209
00:36:45.556 --> 00:36:56.236
Dat komt op ongeveer hetzelfde neer natuurlijk. Ja, maar zo is, zo is het leven één groot system prompt waarin je moet nadenken hoe je expliciet dingen regels verwoordt, zeg maar. Oké, ik zag nog een ander ding.

210
00:36:56.296 --> 00:37:09.388
Dat was namelijk dat er in San Francisco volgens mij een paar avonden geleden er een zelfrijdende auto in de fik werd gezet door mensen in Chinatown.En ik dacht: dit doet vast iets met Wytse. Ja, nou ik.

211
00:37:09.408 --> 00:37:19.518
Zolang ik jou ken, ben jij al bang dat, dat het volk in opstand komt tegen de, de, de verspreiders van, uh, van de, de, de, van de innovatie. Want dat zijn namelijk de mensen die.

212
00:37:19.528 --> 00:37:31.528
En de vraag is of ik er niet bij ga staan. Oké. Dat zit, dat, dat is ook nog een. Als jij, als jij ter plaatse was geweest bij deze zelfrijdende robotaxi, [lacht] dan had je hem ook een poppetje kleiner gemaakt.

213
00:37:31.568 --> 00:37:41.128
Nee, ik voel binnen mezelf dat ik, ik, ja, ik moet altijd een beetje in de gaten houden van wanneer, uhm, ben je het, ben je het eens met de meute, zeg maar. En, uh, ik weet dat niet zo goed.

214
00:37:41.168 --> 00:37:48.368
Dat gaat op intuïtie, denk ik. Maar, uh, auto's in de fik steken lijkt me sowieso niet een heel verstandig idee, maar ik weet het niet zo goed.

215
00:37:48.788 --> 00:37:58.188
Kijk, ik heb het eerder buiten deze show wel eens met jou gehad over dat ik zei: er komt een moment waarin deze technologie zo hevig is, zo snel gaat, zo,

216
00:37:59.208 --> 00:38:09.608
uh, fijn is voor een hele kleine groep en minder fijn voor een hele grote groep, dat er mensen met molotovs naar datacentra gaan, zeg maar. Dat is een beetje wat ik dan. En nu zeg jij eigenlijk van: nou. Het is gebeurd.

217
00:38:09.988 --> 00:38:20.808
Alleen begon het met een, met een robotaxi. Ja. Ja. Uhm. Ik denk dat jij het beeld hebt gezien of niet? Ja, jazeker. Van de robotaxi die dan lust moet worden. Wat vond je van dat beeld?

218
00:38:21.188 --> 00:38:28.688
Nou, ik had meteen dat frame erbij, maar tegelijk, dat frame wat ik net uitleg, hè, van: er gaat een moment en dan gaat het gericht zijn richting die fysieke infrastructuur.

219
00:38:28.728 --> 00:38:38.888
Dat zijn datacentra, dat zijn robots, dat zijn die auto's. En die auto's, dat zijn eigenlijk de eerste vierwielige robots die in het straatbeeld zijn. Niet hier in Nederland over het algemeen, maar wel in San Francisco.

220
00:38:39.008 --> 00:38:50.788
AI op wielen. Ja, AI op wielen. Is gewoon een robot zonder, zonder voeten, maar wel met banden. Die, uh, en dan gaat daar, gaan die mensen iets tegen doen. Ja, het is nie, ik, ik weet, ik kan het nog niet.

221
00:38:51.288 --> 00:38:56.768
Als het inderdaad een soort eerste is en straks gaan er iedere week drie auto's in de fik en, uh, wordt die hele vloot in brand gestoken.

222
00:38:57.228 --> 00:39:03.708
Dan zitten we meer op mijn intuïtie dat ik denk: oei, ik had, ik dacht een datacenter, maar blijkbaar zijn het dan de dingen die door de straat rijden.

223
00:39:03.768 --> 00:39:09.548
Ik voelde er wel iets bij, maar ik had ook nog zoiets van: ja, ik ben benieuwd. Jij dacht: het valt wel mee.

224
00:39:10.088 --> 00:39:19.128
Nee, ik dacht, ik dacht wel San Francisco, dus ik weet niet zo goed of ik, of ik daar die duiding aan kan geven. Ja, maar da-, ik dacht, daarvan dacht ik juist: San Francisco loopt voor.

225
00:39:19.468 --> 00:39:28.318
En als het al in San Francisco gebeurt, moet je dan nagaan hoe groot de woede gaat zijn in, in, uh, gebieden waar mensen iets armer zijn, uh, dan.

226
00:39:28.338 --> 00:39:39.148
Ja, maar ik denk dus op het moment dat, als die, nou laten we zeggen concreet, als die robottaxi's, uhm, beschikbaar zijn voor iedereen, ervoor zorgen dat mensen die niet kunnen rijden, kunnen rijden.

227
00:39:39.208 --> 00:39:51.208
Oma kan langs bij haar kleinkind, want, uh, ze kan gratis meerijden, want, uh, op, op welke manier dan ook hebben wij met elkaar gezegd als samenleving: Ja. Uh, wij subsidiëren die taxi's.

228
00:39:51.248 --> 00:39:56.848
Dat is zoiets moois dat we allemaal naar elkaar toe kunnen. Dat doen we. Dan gaat niemand daar een molotov op gooien volgens mij. Ja, precies.

229
00:39:56.868 --> 00:40:01.308
Volgens mij gaan mensen pas molotovs gooien als die deur alleen maar open gaat voor iemand met de hoogste creditcard.

230
00:40:01.728 --> 00:40:12.048
Dat, daarom vind ik San Francisco een moeilijke context, omdat het wel echt een ander land is, Amerika, op dat gebied. Uhm, dus ik, ik kan niet zo goed duiden: waar zijn mensen nu precies boos om?

231
00:40:12.108 --> 00:40:24.268
Is het, uhm, zou sowieso nooit een auto rond moeten rijden zonder mensen erin en, en dat, want dat is inherent, whatever. Ook al is die gratis. Ook al krijg je geld als je erin stapt, daar moet een molotov op.

232
00:40:24.328 --> 00:40:27.948
Dan ben je echt bezig dat je zegt: er moet, er moet geen vervanging komen voor de mensheid.

233
00:40:27.988 --> 00:40:36.488
Ik ben tegen alle vormen van kunstmatige intelligentie, maar als jij zegt: nee, die ding is alleen maar voor de elite en daarom ben ik boos, dan heb je toch een andere motivatie.

234
00:40:36.888 --> 00:40:43.028
Ik zat net, echt, het is gerelateerd hieraan. De, de, de Super Bowl was, uh, uh, wat is het, eergisteren, gisteren? Weet ik veel.

235
00:40:43.048 --> 00:40:55.548
Ik volg die shit allemaal niet, maar ik zag een, een reclame voorbijkomen van Microsoft die, uh, tijdens de, de reclames van de Super Bowl een reclame had gemaakt voor Copilot. En heb je dit gezien? Nee.

236
00:40:55.968 --> 00:41:03.548
Het was een filmpje van een minuut waarin allemaal jonge mensen in heel mooi cinematografisch, uh, in beeld gebracht worden, die allemaal dromen hebben.

237
00:41:04.328 --> 00:41:14.408
Uh, sommigen willen een bedrijf beginnen, sommigen willen iets bouwen, sommigen willen muziek maken, sommigen willen, uh, sommige zeggen ze van, uh: ze denken dat ik te oud ben om nog wat te leren.

238
00:41:14.608 --> 00:41:24.248
Uh, anderen zeggen: ik ben, zeggen dat ik te jong ben om de wereld te veranderen. Allemaal mensen die grootse dingen doen, willen doen in de wereld. En de zin is elke keer: ze denken dat ik het niet kan.

239
00:41:25.008 --> 00:41:36.108
En dan vervolgens is de pay off: Microsoft Copilot. We, wij, wij helpen je deze dingen mogelijk te maken. Het is een beetje in lijn met wat jij net zegt over die, die robotaxi's.

240
00:41:36.168 --> 00:41:41.488
Als ze het verkopen als iets kapitalistisch dan, uh, en voor de rijken, dan kan er een molotovcocktail op.

241
00:41:41.548 --> 00:41:52.688
Terwijl als het is om iedereen te helpen en, en jouw dromen waar te maken la, la, la, dan, uh, dan is het misschien iets wat meer goedgekeurd als van ons. En ik opeens denk ik: hmm, misschien dat hier wel, uh. Mhmm. Ja,

242
00:41:53.688 --> 00:41:59.888
allebei voelt als dat het een meme zou kunnen worden en de vraag is welke gaat, uh, gaat de meeste aandacht krijgen?

243
00:41:59.948 --> 00:42:09.308
Ja, en ik denk dat uit het voorbeeld van dat WhatsApp-groepje van Sam Altman van dat eerste bedrijf met X omzet. Wat was het? 100 miljard. Miljard. Een miljard, denk ik dan. Ja, één miljard.

244
00:42:09.348 --> 00:42:17.408
En dan heb je, kijk, dan is, kijk, als het zo is. Ieder mens heeft in essentie, hè, uh, de soort ultimate equalizer.

245
00:42:17.828 --> 00:42:27.787
Wat heel, wat heel erg discutabel is, want er zijn zoveel redenen waarom het niet eerlijk kan zijn, maar dat is het idee. Dus je, het enige wat je hoeft te doen is die telefoon te pakken. Die ligt voor je klaar.

246
00:42:27.828 --> 00:42:38.628
Je hoeft hem niet te kopen, hij ligt er en dan hoef je alleen maar in gesprek te gaan met een AI. En als jij maar nieuwsgierig genoeg bent en maar genoeg wil en durf hebt, dan gaat voor jou de wereld open, hè.

247
00:42:38.748 --> 00:42:45.568
Dan, dat is een beetje de ultieme marketingcampagne van: wij geven superpowers aan de hele mensheid. Iedereen doet mee, niemand heeft voordeel, alles is eerlijk.

248
00:42:46.088 --> 00:42:55.048
Dan heb je minder weerstand dan als je het paywall alleen maar in de duurste toestellen stopt en ook nog eens niet toegankelijk maakt, want het is gewoon heel moeilijk om mee te werken.

249
00:42:55.548 --> 00:43:03.428
Ik denk als jij een ijscoman bent die gewoon rondrijdt en letterlijk gratis ijs deelt, ijsjes uitdeelt aan wie ook maar wil, dat er weinig molotovs op je ijskar gaan komen.

250
00:43:04.068 --> 00:43:08.388
[lacht] Maar als jij zegt: alleen met de pinpas betalen, heb je al kans op molotov, want geen cash meer.

251
00:43:08.428 --> 00:43:16.328
En [lacht] als, en als jij dan ook nog gaat kiezen wie het ijsje wel of niet krijgt of alleen maar in dure buurten gaat rijden, heb je een hele grote kans dat er meer mensen boos worden, ja.

252
00:43:16.408 --> 00:43:24.188
Maar even serieus, wat zeg je nu, uh, wat is nu als je nu je, je, je, je thermometer in de, in de samenleving steekt?

253
00:43:24.628 --> 00:43:32.164
Hoe den-, hoe, hoe, waar denk je nu anders over dan, uh, je, dit zei jij tegen mij, denk ik, een jaartje geleden of zoToen was je toen.

254
00:43:32.184 --> 00:43:41.844
Toen was dit iets waar je, waar je het waar je, waar je toch ook wel vrees voor voor voelde. Hoe zou je nu zeggen wat is daar nu aan veranderd? Is het even groot? Valt het wel mee? Is het, is het. Is de focus verlegd?

255
00:43:42.224 --> 00:43:57.464
Ja, mooie vraag. Ik zit te denken. Uhm. Er is. De mensen die ik spreek en ik ben niet de hele dag op straat als een soort Griekse filosoof vanuit een vuilnisbak mensen aan het aanspreken op hun levensvragen.

256
00:43:57.504 --> 00:44:06.944
Maar ik probeer wel een beetje in mijn omgeving te voelen en los te krijgen van wat, wat is dat nou? Hoe voelt dat nu, zo'n wereld waarin steeds meer AI voorbeelden zijn?

257
00:44:06.984 --> 00:44:16.644
Ik laat ze dan ook expres zien als ik weer iets nieuws heb. Bijvoorbeeld jouw Hey gen video die op je Twitter staat. Die laat ik dan aan allemaal mensen zien van: kijk dan, kijk dan, dit kan nu, hè.

258
00:44:17.144 --> 00:44:21.564
En dan is het heel vaak oe, eng, eng, eng, want dat is dan de eerste. Want wat moet.

259
00:44:21.604 --> 00:44:29.684
Dat is op zich een primitieve mens reactie, dus daar kan je dan cynisch over zijn en zeggen alles wat nieuw is, vinden mensen eerst eng. Maar dus dat heb je niet.

260
00:44:29.724 --> 00:44:36.404
Je hebt die eerste take zegt dan eigenlijk niet zoveel die mensen hebben. Want ja, mensen zijn gewoon een beetje bang allemaal. Ik ook, ik ben heel bang dus.

261
00:44:37.264 --> 00:44:49.044
Maar wat dus interessanter is wat gebeurt er nou als dat wat langer leeft en een soort van land in zo'n samenleving? Uhm, ik zie heel veel enthousiasme, ook bij mensen gewoon om me heen.

262
00:44:49.084 --> 00:44:58.754
Helemaal mensen waar ik nooit van had gedacht dat ze zulke tools gingen gebruiken die ineens uhm ChatGPT ook geïnstalleerd hebben. Ik vraag het ook aan mensen. Gebruik je wel eens ChatGPT? Heb je de app geïnstalleerd?

263
00:44:58.784 --> 00:45:07.784
Nou, echt super veel! Waar gebruik je het dan voor? Oh, gewoon een beetje kletsen. Of als ik gewoon nieuwsgierig ben of ik kijk een tv-programma. Weet je wat Google vroeger deed? Dus die zullen.

264
00:45:07.824 --> 00:45:19.784
Ik snap hun wel met Gemini, maar. En dan is het ook dan vraag ik door van ja maar wat dan als dit straks veel slimmer is? Nou, nu is het nog aardig dom, hoor. Gratis versie. Ik denk al hmm, oké, weet je.

265
00:45:20.004 --> 00:45:32.303
Maar van jammer, want nu hebben we eigenlijk geen goed gesprek erover. En dan zeg ik maar ben jij dan veilig voor wat jij doet? Ja, maar wat ik weet is een expert ding. Of ik bedoel heel veel fysiek en dat kan nog niet.

266
00:45:32.504 --> 00:45:45.724
Ik ben veilig in mijn fysieke, want er is nog geen robot. Uhm, dan merk ik, ik heb mijn, mijn mening is nu wat ik zie dat ik denk oké, ik maak me nog steeds zorgen.

267
00:45:46.264 --> 00:45:58.104
De reden dat het nog niet zo uhm breed, dat er nog niet een soort breed verspreid onrust rondom dit onderwerp is. Of in ieder geval grotere verbazing.

268
00:45:58.144 --> 00:46:12.264
Wat positiever is wat ik dan denk dat toch heel veel mensen het niet helemaal doorhebben nog. Ja. Wat er kan nu, wat er in de maak is en het momentum, die snelheid is gewoon voor jou en mij amper bij te houden.

269
00:46:12.864 --> 00:46:23.184
We zitten inmiddels op de AI daily in plaats van weekly qua nieuws, dus het is echt niet normaal. Wij gaan niet dagelijks opnemen trouwens, geen zorgen, maar dan moet ik het weg kunnen geven aan een AI companion.

270
00:46:23.224 --> 00:46:35.564
Dan maybe. Maar in die week. Door de week luister je naar AI Wietse en in het op zondag is hij er in het echt. Zou leuk zijn. Zeker. Ik zal proberen mijn antwoord wat minder, wat meer concreet te krijgen. Kijk.

271
00:46:36.544 --> 00:46:46.364
Een heel beknopte Wietse is door de week. Nee, dat zou. Leuk zijn. Lukt niet man. Ik hink een beetje op twee voeten. Kijk soms, soms, dan zie ik weer iets, weet je wel. En dan? Of dan.

272
00:46:46.524 --> 00:46:52.844
Dan ben ik weer aan het lezen over zo'n Verify step by step. Een van de papers van Open AI die heel erg gaan over.

273
00:46:53.244 --> 00:47:01.424
Je kan wel goed worden in wiskunde als je een AI vraagt om het per stap uit te leggen en dan per stap kan je rating geven en dan op een gegeven moment wordt dat ding toch wel slimmer in logica.

274
00:47:01.484 --> 00:47:14.904
En eigenlijk waar nu die taal modellen door de mand vallen. Daar zijn gewoon mogelijkheden om dat te verbeteren en empirisch dus bewezen verbeteren. Dit weten we nu. Dat is niet meer. Gaat het lukken?

275
00:47:14.944 --> 00:47:24.384
Dat lukt dus eigenlijk de. Wat mensen nu zeggen over hij, hij hallucineert zoveel of. Sorry man, dat kan, dat kan gewoon opgelost worden. Ligt niks in de weg. Ja. Wat?

276
00:47:24.424 --> 00:47:35.144
Wat er in de weg ligt, is gewoon tijd om het te integreren. Er zijn niet genoeg GPU's. En als er GPU's zijn, is er niet genoeg energie. Gewoon letterlijk. Er is niet genoeg energie, dus

277
00:47:36.984 --> 00:47:48.424
dan denk ik dan heeft het vooral te maken met niet meer kan het, maar wanneer komt het dan? En wanneer komt het in een vorm dat mensen het ook kunnen toepassen in hun eigen leven? En ineens.

278
00:47:48.844 --> 00:48:00.904
Nou, wacht, ik maak het even concreet. Anderhalve week geleden. Een vriend van mij zei tegen mij: Jo, kan ik even bellen? Ik zei: geen probleem, wij gaan bellen. En hij zegt het het het is gewoon bij me geland.

279
00:48:01.064 --> 00:48:12.504
Ik heb gewoon een soort existentiële crisis nu. Het is echt heftig, want ik merk gewoon wat. Wat ik dacht wat mij speciaal maakte, is niet zo speciaal. Op het gebied van kennis, kunde, expertkennis op een bepaald domein.

280
00:48:13.044 --> 00:48:22.064
Want de hele dag interacteren met ChatGPT, dat ding wordt alleen maar beter. Ik ik word er beter in om met dat ding te praten. Daardoor besef ik me eigenlijk dat het aan mij lag, dat het niet zo slim was.

281
00:48:22.104 --> 00:48:33.304
Want ik moet gewoon slimmer leren praten ermee. Maar goed. En toen zei ik ook van ja jeetje. Van mooi dat ik jou bellen, dat is dat. Dat is dan. Je bent dan de hulplijn bij existentiële problemen.

282
00:48:33.804 --> 00:48:44.184
Nou, omdat dat heeft ook ermee te maken dat ik een soort [gniffelt] eenzaam niet, maar ik ben niet per se. Nou, ik ben op dat gebied wel een beetje eenzaam. Dat ik, uh, ik denk echt

283
00:48:45.304 --> 00:48:55.104
jongens, jongens, waarom hebben we het hier niet allemaal de hele tijd over? Ja. En ik bedoel, daarom kan ik ook met jou zonder moeite deze podcast maken. Want ja, ik ben hier echt heel veel mee bezig.

284
00:48:55.164 --> 00:49:03.964
Niet alleen omdat het coole technologie is en ik een gadget nerd ben. Nee man, dit is echt, dit is het verhaal van onze tijd. Dit is het gewoon.

285
00:49:04.004 --> 00:49:15.384
Dan kan je zeggen ja, een bioloog zegt dat biologie alles is en een econoom. Nee, nee, nee, dit is het. En daar sta ik volledig achter. En de tijd zal leren dat dat gewoon klopt. Dit is zo ongelooflijk.

286
00:49:15.964 --> 00:49:21.024
De geschiedenis, history in the making. Dus dat ik hier met jou zit wordt alleen maar logischer.

287
00:49:21.424 --> 00:49:29.004
En alleen maar meer mensen gaan denken nou, misschien hebben die gasten ook, al is het allemaal ongein, wel een onderwerp waar inderdaad meer aandacht naar toe mag. En

288
00:49:30.204 --> 00:49:43.576
m'n zorg is niet per se afgenomen die ik een jaar geleden ook al had. Ik vind het wel interessant om te zien.Dat, uhm, ja, bij mij er blijkbaar een soort van als dit, dan dat plaatsvindt in mijn hoofd.

289
00:49:43.596 --> 00:49:51.736
Dus ik zie, ik zie Hey Jen, een voorbeeld van jouw video en ik extrapoleer dan van die video en denk: nou, daar gaat, daar gaat het hele medialandschap.

290
00:49:51.976 --> 00:49:58.336
Ik zie dat gewoon zo boem, boem, boem, boem, met duizenden domino's omgaan naar iets nieuws. Dat is niet op zich, op zich niet erg. Disruptie.

291
00:49:59.076 --> 00:50:08.056
Uhm, maar dat is dan op een bepaalde manier voor mij al zo, terwijl, dat moet dan nog wel gaan gebeuren. Kon je hem geruststellen? Uhm, nou,

292
00:50:09.236 --> 00:50:21.076
we hadden het erover van waarschijnlijk zit je in het, want dit, dit gesprek heb ik op een andere manier al vaker met vrienden gehad. Uhm, meer filosof-filosofisch, als in, uh, wat als?

293
00:50:21.416 --> 00:50:28.236
Dus hypothetisch moet ik, dat is het juiste woord. Dit was een gesprek waar het niet meer hypothetisch was, want hij voelt nu gewoon: oké, dit is gaande. Oké.

294
00:50:28.916 --> 00:50:42.096
En dat ik zei: ik heb zelf het idee dat het, dat, dat inderdaad het fysieke domein, uh, dus buiten het virtuele, wat ik, dat, dat, dat trommeltje wat ik al een tijdje sla, voelt veiliger. Hè, dus als jij werk hebt, uh.

295
00:50:42.156 --> 00:50:50.036
In de bouw. Ja, en waar je ook een hand moet geven en met mensen moet communiceren en echt een soort, moet ruiken misschien wel, hè, een soort intuïtie.

296
00:50:50.076 --> 00:50:59.116
Dat kan zijn dat je het weer kan ruiken of, uh, dat je denkt: er is een lekkage tijdens de bouw, want ik ruik nat beton. Ja. Heel naïef van mij. Ik ben zo'n binnenzittende jongen. Ik heb geen idee.

297
00:50:59.126 --> 00:51:10.096
Maar goed, uhm, dan zit je echt nog wel even goed, want er is in dat fysieke is gewoon duur, moeilijk, het helemaal niet waard. Wat doet deze jongen dan ongeveer? Ik snap wel dat je niet- Software. Ja, precies.

298
00:51:10.136 --> 00:51:22.616
En die denkt- Nee, tuurlijk, mijn bubbel. Nee, maar ik be-, ik bedoel, ik vind dit heel, dat is heel wezenlijk. Dus dit is dan iemand die, die programmeert en die denkt opeens: holy shit. Ja. En, en. Echt holy shit.

299
00:51:22.636 --> 00:51:32.476
En, en kun je dan, zeg maar, wat was het moment dat dat triggerde dan? Uhm, nou, het was, het was een heel specifiek, uh, complex, uh, probleem.

300
00:51:32.556 --> 00:51:40.616
Echt dus binnen, want je kunt, ik roep nu al tijden: ik ben niet echt een programmeur, ik ben een scriptkid. Dat houdt gewoon in: ik hang dingen aan elkaar en als het werkt, werkt het. All good.

301
00:51:41.136 --> 00:51:50.556
Je hebt mensen die daadwerkelijk computerwetenschappen hebben gestudeerd en op een heel ander niveau bezig zijn met programmeren. Daar zitten allemaal levels in. Ik, uh, zet mezelf niet zo hoog daar.

302
00:51:51.916 --> 00:52:05.686
De, de meeste sceptici van deze taalmodellen, dat zijn legit programmeurs die terecht zeggen: jongens, dit is gewoon een predictiemodel. Dit is echt wel een soort van papegaaitje die woordjes probeert te gokken.

303
00:52:06.156 --> 00:52:14.736
En als ik gewoon even een van mijn favoriete problemen erin gooi waar ik zelf al jaren mee struggle, dan pleurt het meteen uit elkaar. Haha. Het is echt zo'n gotcha, doen die mensen het liefst.

304
00:52:15.336 --> 00:52:29.636
Ik denk ook omdat ze én zelf heel technisch onderlegd zijn, dus denken: uh, zo, zo, zo vlot zal het niet gaan, en, mijn mening, zelf ook zoiets hebben: wacht eens even, je gaat mij nog niet vertellen dat dat ding zo slim is als dat ik ben.

305
00:52:30.116 --> 00:52:39.516
Ik zit hier al twintig, dertig jaar voor te leren. Ja, je bedoelt: ze willen het niet geloven en, en daar- Dat denk ik. En ze gaan het dan met die gekleurde bril gaan ze dan testen en dan, dan valt het allemaal mee.

306
00:52:40.156 --> 00:52:45.076
Ja, en wat er dan nu, uh, gebeurt, want ze hebben grotendeels gelijk.

307
00:52:45.636 --> 00:52:55.016
Als je echt domeinkennis hebt en je gaat echt de diepte in of je wil over jouw totale softwareproject praten, dat kan een project zijn waar dertig mensen aan werken, dat past niet in die prompt.

308
00:52:55.586 --> 00:53:04.876
[lacht] Leuk als jij een stukje code hebt, maar dat stukje code hangt in een hele context. En als die context niet meekomt, dan snapt ie, dan snapt die, uh, chatbot dat gewoon niet. Dat is ook zo.

309
00:53:04.916 --> 00:53:15.556
Maar als je dan dus soms een probleem hebt wat wel past, maar ook heel domeinspecifiek is en waar je eigenlijk normaal een expert voor zou inschakelen. En daar komen in één keer antwoorden op.

310
00:53:15.696 --> 00:53:24.996
En dan kan je ook nog zeggen: joh, ik sna- ik heb je getest, wat jij hebt gezegd als oplossing, dat werkt inderdaad, maar ik wil eigenlijk ook weten waarom het werkt. En die uitleg is ook nog eens goed.

311
00:53:25.516 --> 00:53:31.356
Dan wordt het spannend, want dan, dan, dan, uh, gaat het kwartje vallen van: maar wacht even.

312
00:53:31.416 --> 00:53:46.196
Als het niet alleen maar de standaard scriptjes zijn, de standaard dingetjes die iedereen zoekt, maar juist over een heel specifieke technologie waar misschien twaalfhonderd experts van op aarde zijn op dit moment en, uh, waar ik normaal misschien een heel duur boek voor had moeten kopen of een consultant.

313
00:53:46.536 --> 00:53:55.215
En dit ding geeft gewoon dat antwoord. En dit was wat er gebeurde met deze, met deze jongen. Die had één, één vraag die hij stelde en er was echt een soort van, er ging een knop om.

314
00:53:55.656 --> 00:54:06.076
Ja, en het is, het is eigenlijk alsof je nee, honderd vragen hebt gesteld en achtennegentig keer kwam er bullshit uit waardoor je dacht: whatever, all good, dit gaat nog wel jaren duren.

315
00:54:06.096 --> 00:54:14.356
En ineens krijg je op een van die vragen, omdat je toch nog een keer probeert en op een bepaalde manier leert praten met, met, met zo'n taalmodel, komt er ineens een antwoord uit en het werkt.

316
00:54:14.476 --> 00:54:26.196
En dan, dan, dat is ook wel een beetje engineer, programmeur eigen, die kunnen dan heel snel extrapoleren. Ja, ja, ja. Oké, maar dan is de reden dat het de rest nog niet kan een optimalisatiestap. Precies.

317
00:54:26.236 --> 00:54:36.686
And then you cross the Rubicon. En dan ben je daar en dan ga je denken: ja, maar goed, dan kan voetballen waarschijnlijk ook wel, afwassen ook wel waarschijnlijk. En dan valt, valt dat hele, uh, kaartenhuis in elkaar.

318
00:54:36.716 --> 00:54:48.696
Oké, maar dan ben je dus een, een, dan probeer je dus een goede vriend voor die, voor die jongen te zijn. Wat, hoe, w-w-wat heb je hem proberen te vertellen? Of wat heb je hem proberen te laten bevragen? Uhm, nou,

319
00:54:49.836 --> 00:54:59.816
dat ik, d-dan ga je in eerste instantie: oké, welke zaken zijn er op de korte termijn die echt heel erg geraakt gaan worden door, uh, deze technologie?

320
00:55:00.356 --> 00:55:08.336
Hè, dat is een beetje waar wij het met zelfrijdende auto levels wel eens over hebben gehad een aflevering of x geleden. Uhm, want dan wil je gaan zien: waar zit jij nu?

321
00:55:09.016 --> 00:55:15.156
Je voelt je blijkbaar op een bepaalde manier, voel je aan: oké, in mijn domein in ieder geval ben ik niet per se veilig meer of zo.

322
00:55:15.166 --> 00:55:26.596
Het heeft ook met baangarantie te maken en existentieel van, niet alleen: ik wil nog brood kunnen kopen bij de supermarkt, maar ook: ja, het is ook wel mijn leven. Het is mijn passie om dit te kunnen doen, hè. Ja.

323
00:55:27.056 --> 00:55:41.476
Dit, dit is een beetje de, uh, illustrator en de copywriter, uh, een jaar geleden al qua, als dat je werk is, dat je denkt: jeetje, ik moet me gaan omscholen.Of in ieder geval een manier vinden om aan mijn brood te komen, maar ook om mijn dag te vullen.

324
00:55:42.016 --> 00:55:47.916
Of ik ga het gewoon doen voor de leuk. Dat is dus nog gewoon fundamentele vragen. Ja. De hele ja, dus het raakt echt wel.

325
00:55:48.426 --> 00:55:56.476
Daarom denk ik dat dit onderwerp ook zo belangrijk is, want het is niet zomaar een onderwerpje waar wij het over hebben. Uhm, en dan komt het oké, je hebt.

326
00:55:56.756 --> 00:56:07.356
Stel de conclusie is mijn domein is een van de eerste op de lijst die gaat. Hé, uh, de copywriters waren eerst, toen de illustrators en nu sta ik, uh, sta ik op de lijst.

327
00:56:07.866 --> 00:56:16.316
Dus, uh, mijn, uh, en dat gaat jaren duren, niet, uh, decennia, zeg maar. Het kan over drie jaar heel anders zijn. Uhm,

328
00:56:17.376 --> 00:56:29.216
ga, hoe ga ik, punt één: hoe ga ik zorgen dat ik nog een dagelijkse bezigheid heb om te zorgen dat er brood op de plank komt? En punt twee: uh, wat ga ik doen? Ga ik het nog blijven doen wat ik doe puur voor de lol.

329
00:56:29.416 --> 00:56:38.036
Gewoon, hè, schilderijen maken die nooit iemand ziet, die ik daarna in brand steek, want ik deed voor het proces. Dat kan, hè, als je zo, dat is prima, maar dan moet je wel zorgen dat je daarnaast nog

330
00:56:38.976 --> 00:56:48.156
dat filmt en verkoopt of iets anders doet. Dan, dan ga je met die vraag bezig en dan wordt het oké. Stel ik ga wat anders doen,

331
00:56:49.136 --> 00:56:58.376
want zo'n gesprek wordt het dan al van: ja, oké, stel dat loopt inderdaad allemaal wel zo los. [gniffelt] Het loopt niet los, het gaat, het gaat los, zeg maar. Uhm, wat ga je dan doen?

332
00:56:58.776 --> 00:57:10.276
En dan bespreken van: oké, het is allemaal koffiedik kijken en want we hebben geen idee. Uh, als ik me dan omschool, wat ga ik dan doen?

333
00:57:10.556 --> 00:57:16.216
Want ik wil niet iets doen wat de volgende op de lijst is, want dan ben ik over achttien maanden weer in deze zelfde crisis.

334
00:57:16.636 --> 00:57:25.156
Ja, je, als een zenboeddhist zou je uit kunnen zoomen en zeggen: moet jij niet eens leren omgaan met het hele idee van een crisis en dat een soort van standard state of mind gaan maken, hè.

335
00:57:25.256 --> 00:57:29.236
Ik, ik, ik ga niet meer proberen die zee glad te strijken. Ik ga gewoon leren zeilen in de storm.

336
00:57:29.636 --> 00:57:43.736
Oké, maar dat is dan wel heel, dat, dat is, vaak is dat een beetje niet han— Vaak willen mensen wat concreets van: geef me nou gewoon [gniffelt] een nieuw werkveld en, en wat opties en dan ga ik kijken welke daarvan mij het meest motiveert of enthousiasmeert.

337
00:57:44.056 --> 00:57:56.006
En dan ga ik inderdaad langzaam al een beetje nadenken over een andere, uh, carrière of een andere levens-, uh, dag, dagbesteding. [gniffelt] En jij, jij zei, uh, pro, bij, b-, voor het vak van programmeren,

338
00:57:56.916 --> 00:58:05.596
i-i-i-is het nog voor een, een, een chatbot lastig om, om- Ja. Een project wat met meerdere mensen gemaakt wordt- Heel lastig. Om dat te overzien. Maar hoe kan dat eigenlijk?

339
00:58:05.636 --> 00:58:18.476
Want, e-, a-als mensen hun, hun code pushen via, uh, f-, opslaan in GitHub, dan is er toch een totaaloverzicht van wat iedereen bijdraagt en wat de hele code ba-, codebase is.

340
00:58:18.516 --> 00:58:25.955
En dan kun je toch, weet je, uh, ref, dan, dan, he, dan, dan kent hij toch de hele codebase? En niet alleen maar wat je plakt in ChatGPT dan.

341
00:58:25.996 --> 00:58:35.176
Ja, maar dat wat je nu beschrijft is echt het limiet van de context window zoals- Ja, oké. Binnen de taalmodellen. Ja, ja. Dus. Die is nog steeds te klein om hele- Heel klein. Ja, oké.

342
00:58:35.216 --> 00:58:42.076
Ja, want je moet, je moet je echt voorstellen dat je dus letterlijk de hele codebase moet mee plakken in je prompt. [gniffelt] Ja. Hè, want, uh.

343
00:58:42.096 --> 00:58:55.996
Ik weet helemaal niet wat de huidige staat van, uh, van de, van de techniek is, wat het, wat het grootste, uhm, context window is wat je op dit moment kan meegeven. Ook omdat, uh, ChatGPT nu meent- Bij Turbo volgens mij.

344
00:58:56.056 --> 00:59:05.136
Oké, maar ook omdat ChatGPT nu meent dat je, uh, in één chat eindeloze hoeveelheid geheugen kan meenemen.

345
00:59:06.336 --> 00:59:12.576
Nou, nou, dat, of dat, dat kan niet, zeg ik nu zo heel zelfverzekerd, maar dan, er is een grote kans dat er andere technieken bestaan die ik niet ken.

346
00:59:12.996 --> 00:59:21.936
Maar, uh, bijvoorbeeld het ou-, het, het bouwen van je eigen GPT, hè, in die GPT Store waar we het wel eens over hebben gehad. Uhm, ik dacht, want, uh,

347
00:59:22.996 --> 00:59:31.906
zoveel inhoudelijke kennis heb ik niet van de wetenschap achter taalmodellen. Ik lees ook maar gewoon een beetje mee en ben heel de tijd verbaasd over wat ik allemaal leer. Uhm, [slikt]

348
00:59:31.916 --> 00:59:34.576
zo'n chat, zo'n GPT kan je documenten bij uploaden.

349
00:59:34.956 --> 00:59:44.656
Hè, we hebben het vorige keer gezegd: da-, jij da-, jij uploadt al jouw dagboeken en e-mail en dan maak je een virtuele Alexander en ik kan dan betalen om met jou te praten om advies te krijgen over het starten van een webbedrijf.

350
00:59:45.086 --> 00:59:52.116
Over het leven. Ja. Mhm. En, uhm, uiteindelijk zitten daar dan, dan, dan dacht ik: oh, dan is dat, dan kan je een aantal dingen doen.

351
00:59:52.156 --> 00:59:59.776
Je kan het model gaan trainen, finetunen, zoals met Geitje, uh, zoals, uh, toen uitgelegd is door die jongen die, uh, bij ons in de aflevering was.

352
01:00:00.336 --> 01:00:14.596
Die zegt: ik pak dat corpus van Nederlandse cultuur en ik ga een Frans taalmodel, uh, of door Frans, vanuit Frans makelaardij ga ik finetunen op Nederlandse cultuur. Dat is een stap. Dat is niet wat GPT, wat GPT's zijn.

353
01:00:14.736 --> 01:00:26.456
Dat zou veel te duur zijn. Een GPT gaan finetunen op Alexander z'n, uh, data. Uhm, gaan ze dan al Alexanders documenten mee plakken in iedere prompt? Ook niet. Nee. Wat doen ze?

354
01:00:26.636 --> 01:00:41.236
Die documenten zijn beschikbaar voor het taalmodel om op het moment precies op tijd, just in time, erbij te halen en te doorzoeken. Om dan te zeggen: oké, uh, Wytse stelt een vraag over, uh, Blendle.

355
01:00:42.216 --> 01:00:52.116
Dan wordt er gewoon een naïeve search gedaan op het woord Blendle en omgevende woorden in al die documenten. Nee. Daar wordt een context van gecreëerd. Ja. Die gaat mee in de prompt. Ja, ja.

356
01:00:52.156 --> 01:01:00.966
En dan, en, hier kom je heel ver mee, hè, want dan kan hij toch zeggen: nou, Alexander heeft hier een aantal opmerkingen gemaakt. Vlug een samenvatting maken. Maar wezenlijk is het eigenlijk een beetje fake. Ja.

357
01:01:00.976 --> 01:01:09.036
Want met mijn naïviteit denk ik: oh, ik dacht dat het een Alexander GPT was- Ja, ja, ja. Die gefinetuned is op Alexander. Dat is niet zo.

358
01:01:09.176 --> 01:01:16.776
Nee, nee, hij leest gewoon maar een klein beetje in de geschiedenis en dan moet je, moet je er toevallig mee raak geschoten hebben met wat hij heeft uitgezocht.

359
01:01:17.296 --> 01:01:30.816
En besef je dus als jij dus tien jaar bij een bedrijf werkt waar je dus, uh, nou ja, stel, dat is een beetje raar voorbeeld, want er zijn weinig programmeurs die de codebase van hun, uh, stel je werkt bij, uhm, de ING.

360
01:01:31.196 --> 01:01:40.356
Uh, nou, dat bestaat sowieso uit meerdere codebases. Een soort tijd, zeg maar, die allemaal in een soort van, stel je voor de aarde met, k-, w-met, met, met regio's en lijntjes ertussen.

361
01:01:40.396 --> 01:01:49.400
Dat is een graph waar je U tegen zegt hoe zo'n- Tot je bij Cobol uitkomt. Ja. De onderste sedimentlaag.Ja, op elkaar gestapeld aan elkaar gekoppelde services.

362
01:01:49.860 --> 01:02:03.240
Maar goed, stel dat jij dan verantwoordelijk bent in een team en je zit er al twintig jaar, dan ga je op een gegeven moment, dan ben je wel op heel veel plekken in die code bezig geweest en heb jij intern ben je gefinetuned en getraind als een, als een uniek model voor dat.

363
01:02:03.460 --> 01:02:18.180
Nou, dit. Ik denk dat er technisch wetenschappelijk niets is wat in de weg staat dat jij gaat zeggen als ING zijnde: oké, we hebben geld, wij gaan wel een echt model trainen op onze hele codebase.

364
01:02:18.790 --> 01:02:26.370
En als je daar dan mee gaat praten, dan kent hij, die kennis een beetje raar in taalmodellen, maar dan heeft hij een redelijke intuïtie, beter woord van hoe die.

365
01:02:26.620 --> 01:02:36.320
En dan, als je dan vragen gaat stellen van: joh, kan je me helpen met dit stukje, stukje code, dan zal hij dat doen vanuit de context waarop hij getraind is, namelijk de hele codebase. Ja.

366
01:02:36.620 --> 01:02:42.780
En dat dit, dat is nu nog gewoon te duur en onbereikbaar voor de gemiddelde programmeur voor zover ik weet.

367
01:02:43.380 --> 01:02:54.600
Maar als je dat gaat doen en dan is het GPT5 en dan ook nog gefinetuned op jouw eigen codebase, dan gaan er wel meer mensen die holy shit momenten krijgen die nu een beetje weglachen. Is dit.

368
01:02:54.680 --> 01:03:07.400
Ik ben benieuwd hoe ver weg dit nog is. En, en is dit nu zo dat, uh, dat dit gewoon het oplossen van de, uhm, van die, van die, of het vergroten van dat context window is? Is dat de crux? Of is het gewoon

369
01:03:08.420 --> 01:03:20.400
wie heeft er het eerste, uh, genoeg geld ingebracht om een, om van een redelijk complex stuk software de hele codebase, uhm, in, in het model te nemen, uh, door op te finetunen?

370
01:03:20.500 --> 01:03:29.180
Want dat moet toch gebeurd zijn de laatste. Want je wil, je zeg maar in de basis, uhm, moet het model beter worden in programmeren.

371
01:03:29.560 --> 01:03:35.960
Nou, daar zijn allemaal benchmarks voor, dus ik heb het nu echt over taalmodellen gefinetuned voor programmeren.

372
01:03:36.060 --> 01:03:44.820
Dus bijvoorbeeld van mij heet het, uh, uh, bij, bij met heet het dan Llama2 code of een andere term en dan weet je al: oeh, ik moet hier niet mijn geschiedenis vragen aan gaan stellen.

373
01:03:44.920 --> 01:03:49.200
Moet je sowieso niet aan een taalmodel doen, maar ik moet hiermee programmeren. Ja. Llama code.

374
01:03:49.640 --> 01:03:59.740
En, uh, dus die moet beter worden in programmeren dan in de taal waarin jij programmeert en de manier waarop je programmeert. Dan moet dat context window omhoog, want dan kan er meer en meer van jouw code tegelijk in.

375
01:04:00.040 --> 01:04:08.220
Dan het taalmodel finetunen op de codebase waar jij specifiek in werkt. En als al die dingen beter worden, niets houdt dat ook in de weg nu.

376
01:04:08.320 --> 01:04:14.760
Er is niet een soort, uh, voor zover ik heb kunnen vinden in de materie, een wetenschappelijk limiet aan een context window.

377
01:04:15.400 --> 01:04:28.240
Daar moet er dan meer hardware bij en, uh, allerlei zaken of een wetenschappelijk limiet aan, aan, aan finetunen. Dus ik, ik denk in dat opzicht dat het, uh, jaren, maar niet decennia weg is

378
01:04:29.260 --> 01:04:40.000
dat steeds meer en meer mensen, in dit geval specifiek binnen het domein van softwareontwikkeling, dat holy shit moment gaan hebben. Ik las laatst dus een artikel in Binnenlands Bestuur en dat artikel achtervolgt me.

379
01:04:40.100 --> 01:04:53.540
Dat ging over een, uhm, een dag die ze bij de Belastingdienst hadden georganiseerd om, uh, om Cobol, The Future of Cobol heette die, heette die conferentie. Nou, dat vind ik gewoon een heel grappig, grappige titel al.

380
01:04:53.740 --> 01:05:04.580
Uh, vo-voor de luisteraars Cobol is een vrij prehistorische programmeertaal die nog steeds gebruikt wordt in allerlei cruciale systemen in Nederland, waaronder bij banken, maar ook dus bij de belastingdienst en alle andere overheden.

381
01:05:04.960 --> 01:05:16.460
Het is hele oude software die geëmulerd wordt op moderne computers en die eigenlijk, die iedereen er graag uit wil hebben, maar wat gewoon niet kan omdat ze zo fundamenteel zijn voor hoe die systemen met de jaren zijn ingericht.

382
01:05:17.080 --> 01:05:29.300
En het lukt dus niet om, uh, die systemen uit te faseren omdat het zo ingewikkeld is. En daarnaast hebben we ook al problemen ermee om, uhm, om die systemen te onderhouden en om ze te gebruiken.

383
01:05:29.740 --> 01:05:34.560
Omdat het aantal mensen wat nog Cobol spreekt, uh, steeds kleiner, uh, wordt.

384
01:05:34.620 --> 01:05:44.100
En, uh, ik, pff, er stond een getal in wat ik nu niet paraat heb, maar een gigantisch aantal van het aantal mensen wat nu Cobol kan, gaat binnenkort met pensioen.

385
01:05:44.600 --> 01:05:53.080
Dus ze zijn nu aan het, uhm, echt een heel groot percentage van het, het totaal aantal mensen dat Cobol kan, gaat op korte tijd, korte termijn met pensioen.

386
01:05:53.120 --> 01:06:00.260
Wat dus problemen gaat veroorzaken in heel veel delen van, uh, soort van bedrijven en, en, en overheid.

387
01:06:00.300 --> 01:06:09.000
En nu zijn ze dus aan het, aan het kijken of ze mensen terug kunnen halen uit pensioen of dat ze nieuwe mensen kunnen opleiden om Cobol te, te leren. Want anders dan kunnen we die systemen.

388
01:06:09.040 --> 01:06:10.520
En het heeft hele concrete gevolgen.

389
01:06:10.620 --> 01:06:23.980
Dit gaat echt over: het lukt ons niet om belasting te innen of het lukt ons niet om bepaalde wensen van de Kamer door te voeren over, om, om het belastingstelsel te veranderen omdat we niet de mensen hebben die die technologie kunnen aanpassen.

390
01:06:24.040 --> 01:06:28.680
Dit is gewoon een probleem met miljarden consequenties ieder jaar in Nederland.

391
01:06:29.380 --> 01:06:39.560
Ik ben zo, zeg maar, nu, nu zit dan iedereen, die conferentie wordt dan georganiseerd om te kijken: ja, nou, hoe kunnen we mensen zover krijgen dat ze weer Cobol gaan, gaan leren? Kunnen we ze een bonus geven?

392
01:06:39.640 --> 01:06:43.120
Kunnen we ze ergens anders vandaan trekken? Kunnen we een soort van zijstromers hebben?

393
01:06:43.160 --> 01:06:52.880
En die moeten dan jarenlang werken om die systemen van de belastingdienst te gaan begrijpen voordat ze ook maar een beetje productief kunnen worden.

394
01:06:52.940 --> 01:07:01.500
Opeens denk ik: is dit niet een beetje een soort van, je hebt mensen die denken bij klimaatverandering: technologie gaat het oplossen. Weet je, we are all going to shit, maar toch niet.

395
01:07:01.900 --> 01:07:13.280
Want uit, if, if shit comes to shove, uh, d'r komt, d'r komt technologie. Weet ik veel, mini kerncentrales en allerlei dingen die uit de lucht gegrepen worden, uh, die, die dit probleem gaan oplossen.

396
01:07:14.080 --> 01:07:24.140
Zij, uh, uh, als je een techoptimist bent op dit moment in de tijd, kun je misschien wel zeggen: en dit is een heel specifiek klein dingetje, hoor, maar het heeft toch miljarden consequenties, dus stiekem onder de oppervlakte best wel belangrijk.

397
01:07:24.620 --> 01:07:35.140
Misschien is dit wel het dingetje wat gaat maken dat, uh, dat we, dat, dat het niet uitmaakt dat Cobol, uh, in die systemen zit. Jouw verhaal doet me heel erg denken aan een discussie die ik ook had.

398
01:07:35.200 --> 01:07:39.400
Een andere vriend jaren geleden die zei: ik ga geen rijbewijs halen.

399
01:07:39.840 --> 01:07:48.920
Die is, is ook dertig plus, heeft nog geen rijbewijs, heeft het heel lang vooruitgeschoven en is niet zo'n goede chauffeur sowieso, want het lukt allemaal niet. Want auto's gaan toch binnenkort wel zelf rijden.

400
01:07:49.000 --> 01:07:54.920
Ja, nee, die had op een gegeven moment, die, die zei echt tegen mij: ik, ik heb het beslotenWeet je, ik ga. Ik heb. Ik heb het besloten. Ik ga het niet meer doen.

401
01:07:55.380 --> 01:08:04.540
Ik wil het niet, want straks heb ik hem en dan duurt het nog maar twee jaar. Als is het de investering niet waard. Ja, en ook de veiligheid van zelfrijden wordt allemaal absurd. En autorijden, dat was heel.

402
01:08:04.620 --> 01:08:17.400
We hadden een hele hypothetische discussie. Dit is echt zes jaar geleden. Bleek toch wat langer te duren allemaal. Oepsie ja. En maar ik heb nu soortgelijke discussies. Mensen om me heen. Ik maak zelf ook software.

403
01:08:17.800 --> 01:08:27.780
Dat ik dan zeg van ja, moeten we nou nog een refactor gaan doen? Een refactor betekent we hebben eigenlijk iets gemaakt en nu we eigenlijk weten wat we eigenlijk gingen maken achteraf hadden, willen we opnieuw beginnen.

404
01:08:27.820 --> 01:08:36.780
Dit hebben softwareontwikkelaars de hele tijd, want je weet vaak pas wat je wil maken als je het gemaakt hebt en dan moet je eigenlijk opnieuw beginnen. En dat kan dan vaak nooit.

405
01:08:36.820 --> 01:08:48.540
En voor je het weet heb je Cobol nog steeds in je systeem zitten. Ja, maar nu heb ik dus discussies dat ik zeg ja, kunnen we het niet laten refactoren door chat GPT? Nee, nu nog niet ja.

406
01:08:48.580 --> 01:08:56.659
Maar hoe ver is dat nou eigenlijk echt weg? Dus dan krijg ik die zelfrijdende auto discussie met mijn eigen cynisme erbij dat ik denk o, die discussie weet ik ook nog.

407
01:08:57.640 --> 01:09:04.560
En want het kan wel zo zijn, dat wil ik wel nog even noemen voor de mensen die nog steeds luisteren naar deze lange tijd. En

408
01:09:05.840 --> 01:09:11.360
weet ik veel, hun glas tegen de muur kapot hebben gegooid als, als daadwerkelijke programmeur zijnde van die Wietse, die snapt het niet. Kijk,

409
01:09:12.430 --> 01:09:21.680
het kan wel zo zijn en dat is dat is namelijk een aantal keer gebeurd, dus die historie wil ik best meenemen, is AI kunstmatige intelligentie, dat bestaat al heel lang.

410
01:09:22.080 --> 01:09:30.840
Vroeger noemde je het automatisering, maar ik heb het nu echt even over AI als zijnde de wetenschappelijke discipline waar je gewoon. Je kunt gewoon kon gewoon KI gaan studeren aan de Universiteit Utrecht.

411
01:09:30.860 --> 01:09:43.580
Al heel lang zeker. Nou, maar op een gegeven moment is dat in een soort winter terechtgekomen. Net als de huidige crypto winter heb je ook die AI winters. En een winter is eigenlijk als je in allemaal dat ends loopt.

412
01:09:44.000 --> 01:09:54.720
Je hebt wel de theorieën, maar niet de computers. Of je hebt wel de theorieën, maar je hebt een probleem. En dat probleem blijkt zo fundamenteel. Nou, ik ga nu. Ik ga geen metafoor doen, maar iets wezenlijks.

413
01:09:55.100 --> 01:10:03.100
De blauwe LED. Hele goede video op dit moment op YouTube over blauwe LEDS. Ik weet even niet van wie, maar een groot science kanaal en het ging er over de uitvinding van de blauwe LED.

414
01:10:03.160 --> 01:10:10.560
Dus een ledje wat blauw licht geeft in plaats van rood of groen. Dan kan jij denken Alexander, dan doe je daar toch een ander stukje plastic omheen? Denk je misschien?

415
01:10:10.630 --> 01:10:21.780
Nee, want die kleur wordt gecreëerd door een bepaald natuurkundig proces. De rode LED was het makkelijkst, toen groen, toen geel en toen hebben we 28 jaar moeten wachten op blauw of zo. Ik wist dit helemaal niet.

416
01:10:21.840 --> 01:10:33.940
Ik ben gefascineerd. Maar who cares? Nou, who cares is dat? Oh, who cares? Je wil RGB hebben, dan kan je alle kleuren maken. Je kan rood, groen en blauw alle kleuren ter wereld maken, waaronder wit.

417
01:10:34.300 --> 01:10:49.040
Ja, maar ze hadden blauw niet. Dus tot die tijd waren alle, alle computer ledjes, alle radio's en alle auto's was oranje, rood of groen. Nooit blauw. Oké. En zeg maar een, een o, een, een, een scherm. Gewoon niet.

418
01:10:49.080 --> 01:10:52.100
Ik moet niet zeggen OLED, maar gewoon een LCD scherm zeg maar.

419
01:10:52.140 --> 01:10:59.760
Je moet dan drie kleuren maken, heel klein naast elkaar en als je dat dan heel snel doet, dan heb je toch alle kleuren van de regenboog met drie de drie basiskleuren.

420
01:11:00.160 --> 01:11:08.440
Dus het was alsof ze de magische elixer konden mengen. Ze misten nog één ingrediënt en dat duurde superlang om dat ingrediënt erbij te krijgen.

421
01:11:08.840 --> 01:11:21.100
En alle grote fabrikanten ter wereld die dus LEDs maakten, chasten allemaal die blauwe LED. Aanrader! Waarom haal ik die blauwe LED erbij? Dat duurde echt veel langer dan menige andere dacht. Echt veel langer ja. En dan?

422
01:11:21.140 --> 01:11:32.660
En toen was die blauwe LED boem, sluizen open. Alles kon ineens wat iedereen altijd al wilde. Nou, het kan zeer goed zo zijn. Ik denk nu op de korte termijn niet, want daar hebben wij het al vaker over gehad. Trust me.

423
01:11:32.700 --> 01:11:40.460
Die Python code die nu allemaal gebouwd is om al die taal modellen te draaien is super inefficiënte troep die aan elkaar gegooid is door wetenschappers om gewoon dingen te bewijzen.

424
01:11:40.820 --> 01:11:48.300
En nu het commercieel inzetbaar is, zit iedereen er bovenop om dit efficiënter, sneller, minder energiegebruik al die zaken te maken.

425
01:11:48.580 --> 01:12:00.300
Dus er is nog een enorme headroom, zeg maar simpelweg zonder fundamentele wetenschap uit te vinden om wat we nu hebben een GPT5 te maken zonder nieuwe uitvindingen, terwijl er eigenlijk ook allemaal nieuwe uitvindingen zijn.

426
01:12:00.600 --> 01:12:03.420
Dus ik zie die winter nog wel even uitgesteld worden.

427
01:12:04.060 --> 01:12:19.490
Maar het kan zo zijn dat net als bij die blauwe LED dat we dat we, de mensheid, iedereen die hiermee bezig is, op een gegeven moment tegen een fundamenteel probleem aan gaat lopen van de transformer paradigm waarop GPT gebaseerd is, waarop taal modellen gebaseerd zijn

428
01:12:21.020 --> 01:12:31.720
dat het inderdaad niet mogelijk is om die hele codebase in te laden van de ING, maar pas over twintig jaar. Dat kan, dus dan is mijn hele ik maak me zorgen datacenters.

429
01:12:31.880 --> 01:12:40.590
De hele samenleving wordt ontwricht achtige verhaal ineens gewoon ineens nog maar dan moet ik daar ineens twintig jaar op wachten. Net als die zelfrijdende auto. Dat kan.

430
01:12:40.590 --> 01:12:51.040
Kunnen we AI toch niet gebruiken om het klimaatprobleem op te lossen? En dan gaan we alsnog daaraan ten onder in plaats van de robots. Nou, hoe je het ook wendt of keert, het valt altijd tegen. Dit was Pokie.

431
01:12:51.120 --> 01:12:58.640
De komende twee weken zijn we er niet, want het is vakantie in verschillende delen van Nederland en dan zijn wij er weer begin maart. Tot dan!

432
01:12:58.800 --> 01:13:09.460
En gebruik je vakantie dan zou ik zeggen om eens rustig na te denken met vrienden en mensen om je heen. Stel ik sta wat dichter op dat lijstje dan ik dacht. Wat Wietse heel de tijd noemt, wat ga ik dan doen?

433
01:13:09.840 --> 01:13:20.230
Een leuke vraag voor de vakantie. Ja, reflecteer gewoon even door op deze aflevering, dat is leuk. Wij zijn er 5 maart weer. Dag doei. [outro jingle]
