WEBVTT

1
00:00:00.100 --> 00:00:10.400
[alarm] Oh. Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.760 --> 00:00:39.320
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:54.200
Koop de Philips S9000 Prestige bij jouw favoriete winkel. [geluid] De Bright podcast brengt je elke week de nieuwste gadgets. Het is gewoon de allerbeste Apple Watch die er is. Tech nieuws.

6
00:00:54.460 --> 00:01:03.060
Instagram heeft weer eens een functie van de concurrentie afgekeken. Commentaar. Ik denk van nou dit was gewoon Volkswagen onwaardig die, die oplossing. En de beste tech tips.

7
00:01:03.320 --> 00:01:12.520
Mijn favoriete boek was Helgoland van Carlo Rovelli. Luister de Bright podcast elke woensdag in je podcast-app. Wat een geweld. Het is zo lekker om naar te luisteren.

8
00:01:26.259 --> 00:01:39.140
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin Alexander Klöpping en Wietse Hagen je bijpraat over de wondere wereld van AI.

9
00:01:39.860 --> 00:01:48.180
Ik ben Milou Bent en deze week heb ik mij verwonderd over het nieuwe gat in de markt waar AI-startups handig op inspelen: overleden dierbaren.

10
00:01:48.600 --> 00:01:57.960
En is dat nu schaamteloos geld trekken uit mensen die het emotioneel al heel erg zwaar hebben? Of kan AI ons echt helpen ons verdriet te verwerken? En waar wil jij naartoe na je dood?

11
00:01:58.090 --> 00:02:00.340
Naar de hel, de hemel of toch naar de cloud?

12
00:02:00.980 --> 00:02:09.380
Maar goed, we beginnen in ieder geval met het nieuws van de week en daarvoor richten we voor de verandering eens de blik naar het oosten in plaats van alleen maar naar het westen en de big tech die daar zitten.

13
00:02:09.580 --> 00:02:21.560
Dus we kijken naar China. Juist. En natuurlijk hebben we het ook even over de Ray-Ban-bril van Mark Zuckerberg en een geinig wearable tooltje dat Rabbit heet. Spit uw oren, dames en heren. We gaan beginnen.

14
00:02:23.440 --> 00:02:34.960
Wietse, waar ben jij? Ja, ik ben in de podcaststudio van de Universiteit Delft. Oh. Waar ik net, uh. Het enige wat niet meteen goed ging was het internet, maar ook dat hebben we inmiddels rechtgetrokken.

15
00:02:35.489 --> 00:02:47.769
Het is een van de aller stilste kamer-kamers waar ik in mijn leven in ben geweest. Oh, dat is eng, hè? Een echte radiostudio. Dan, dan kun je zo je hartslag voelen. Ja, dank je wel daarvoor. [lacht] Die voel ik nu.

16
00:02:48.260 --> 00:03:00.540
En je hoort jezelf ademen. Komen de muren al op je af? Nee, want het is niet zo'n klein hokje zie ik nu. Maar een paar spiegels om te faken dat het groter is, hadden wel goed geweest hier.

17
00:03:00.600 --> 00:03:09.640
Je gaat straks een lezing geven, toch? Ja. Ja. Over, uh, uh, robots. Nou, dat klinkt heel suf dat ik het zo zeg over robots, maar- Hoezo? Ik vind dat een spannend- Eigenlijk over automatisering.

18
00:03:10.480 --> 00:03:20.860
Ja, het kan heel spannend worden, maar, ja, we gaan echt praten over poki-onderwerpen, dus. Heb je dit ook aan, a-aan Poki overgehouden of niet? Dit is wel, het zijn luisteraars die mij hebben gevraagd. Kijk.

19
00:03:20.880 --> 00:03:22.400
Dat is wel grappig, hè? Nou. Dat is tof.

20
00:03:22.780 --> 00:03:31.840
Dan, dan rest Milou en mij de luisteraars heel veel plezier te wensen, hoe-- ondanks dat ze het al ge-gehoord hebben als ze dit dan weer horen, maar het is dan wel door de podcast, dus het moet toch genoemd worden.

21
00:03:31.940 --> 00:03:42.860
Ja, en wij sturen wel een factuur voor de commissie. [lacht] Geen zorgen. En dan een wedervraag: hoe gaat het daar in Amsterdam? Want ik zie jullie dus zitten even voor de luisteraaren. Leeg en koud zonder jou.

22
00:03:43.060 --> 00:03:56.040
Ja, eenzaam. Eenzaam. Hoe gaat het met jou, Milou? Uhm, ik ben een beetje overloaded geloof ik. Ja, maar, uh, ik heb hier, dit is wel mijn hoogtepunt van de week. Deze podcast. Ja, dat zal.

23
00:03:56.120 --> 00:04:02.960
Ja, nou ja, dat, kijk, jij, dat geloof je niet. Ja, dat zei je een half uur geleden toen je een colaatje ging halen ergens ook. Ja.

24
00:04:03.460 --> 00:04:13.180
Een half uur geleden zat ik in Dolfin en dat was absoluut niet mijn hoogtepunt van de week. Nee, dat is niemands hoogtepunt. Dat, dat gezellige restaurant onder het FD en BNR. Maar maandag begint jouw allereerste column.

25
00:04:13.220 --> 00:04:21.120
Ja, dinsdag 7 mei. In het Financieel Dagblad. Klopt, ja. Nou, spannend. Ik kan me voorstellen dat je daar stress van krijgt. Nou ja, ik ben daar wel. Nou ja, stress.

26
00:04:21.200 --> 00:04:28.760
Dat is, ik heb er ook ongelofelijk veel zin in natuurlijk. Ja, hoor je. Hoe gaat het met jou, Alexander? Maar is de column al af? Sorry hoor. Nee. Alexander. Het moet een beetje op de actualiteit zijn.

27
00:04:28.800 --> 00:04:39.120
Ik ben journalist natuurlijk van huis uit, dus je moet wel iets urgents- Urgentie. Naar voren brengen. Staat er al stiekem iets? Staat er al iets met ruimte waar je dingen in kan voegen? Ik zou het zo oplossen.

28
00:04:39.300 --> 00:04:49.780
Ik heb een, ik heb een heel groot document met allemaal ideeën en allemaal steengoeie zinnen en oneliners en, dus eigenlijk heeft de column, is het gewoon een kwestie van een beetje dat samenstellen en, uh.

29
00:04:49.969 --> 00:04:57.660
Het is echt waar wat je nu zegt. Je hebt al een vision board. Ja. Ja. Ja. Ja. Oh, grappig. Ja, als je dat zo noemt. Ja. Zal ook wel weer AI voor zijn denk ik.

30
00:04:58.080 --> 00:05:08.000
Ik vermoed het ook, uh, maar ik, het valt mee dat je je column niet met AI gaat schrijven. Gaat hij wel over AI, de eerste? Denk-- ik weet het, ik weet het echt nog niet. Is er ander nieuws dan AI? Zou kunnen.

31
00:05:08.080 --> 00:05:15.040
Eigenlijk niet. Nee, hè? [lacht] Nee, want wat zijn we weer overladen deze week? Daarover straks meer. Maar eerst moeten we nog weten hoe het met Alexander gaat. Met mij gaat het prima.

32
00:05:15.100 --> 00:05:23.880
Ik heb net bij de Etos van die neusspray gehaald met een X, met het ingrediënt een X. Xini- Xivi- Vitol. Xivi- Xi. Je hebt, zeg maar neusspray met zout.

33
00:05:24.040 --> 00:05:30.180
Dat is, dat is fake, maar, uh, je hebt ook die met het hy-hyperchemisch klinkende middeltje beginnend met een X. Nou, dat spul.

34
00:05:30.220 --> 00:05:37.600
Ik wil, ik, ik, wat, bijna de neiging op te zoeken wie dat heeft uitgevonden, want ik wil die, ik wil een standbeeld oprichten voor die persoon. Het is zo chill spul. Ja, het is heel chill spul.

35
00:05:37.630 --> 00:05:47.410
Maar je weet ook het gevaar, hè? Ja, weet ik, maar het is gewoon lekker. Ik doe het zeker elke dag. Want dan zei de mens ja. Je raakt verslaafd. Ja, weet ik, maar dat dacht ik, dacht ik onzin. Nee.

36
00:05:47.540 --> 00:05:55.940
Die verslaving is dus een afhankelijkheid. Ik bedoel, dan kan je zeggen dat is hetzelfde, maar dat je neus nooit meer open gaat zonder. Ja, dat is echt zo. Dat, ik- Nee, dat weet ik, dat heb ik meegemaakt.

37
00:05:55.960 --> 00:06:03.792
Toen dacht ik: oh, is dit wat ze bedoelden? Ja, precies, juist. Ik had een, ik dacht dan. Snap je wat ik bedoel?Ik heb een vriendin die die die. Die heeft ongeveer.

38
00:06:03.832 --> 00:06:13.912
Nou, die heeft iets van vijf etos die ze afzonderlijk van elkaar elke keer weer afstruint om maar onder de radar te houden dat ze waanzinnig afhankelijk is van dat middel. Ja, je gaat nogal wat.

39
00:06:14.332 --> 00:06:25.352
Maar waar is ze bang voor? Voor de mening van de kassamedewerker? Of is er een centraal register voor, voor, voor preclusie premies gebruiken? Wie is er? Wie is er niet bang voor de mening van de kassabediende?

40
00:06:25.412 --> 00:06:39.672
Goed, laten we maar even echt beginnen met het met het nieuws en ik. Nou ja, je zou bijna een soort van nekpijn krijgen als je het nieuws over AI vond, want alles komt ongeveer van de big big tech in de Verenigde Staten.

41
00:06:40.012 --> 00:06:44.212
Maar gelukkig konden we eindelijk een keer de andere kant op kijken naar het oosten.

42
00:06:45.112 --> 00:06:53.932
Want China is dus ook allemaal dingen aan het doen en ik heb daar eigenlijk nog niet zo bij stilgestaan dat er in China misschien ook wel van alles gebeurt op het gebied van AI. En dat is dus wel degelijk zo.

43
00:06:54.012 --> 00:07:04.692
Sense Time heeft Sense Nova 500 gelanceerd. Time zeg jij Sense time. Heb je er van gehoord? Nee. Nou ja, hebben jullie überhaupt eerder in China verdiept of niet?

44
00:07:05.872 --> 00:07:14.012
Nou, het viel mij op, want ik volg die leaderboards op al die open source plekken waar dan al die modellen met elkaar vergeleken worden als een soort klassieke topveertig.

45
00:07:14.552 --> 00:07:19.732
En daar staan heel veel modellen tussen waar ik niet zo goed van kan uitspreken of een hoop tekens zie die ik niet kan lezen.

46
00:07:20.092 --> 00:07:32.332
Dus ik ben er wel eens ingedoken dat het me al opviel dat hoog op de leaderboards modellen staan uit landen anders dan Amerika of Europa. Ja zeker. Europa is geen land, maar je snapt wat ik bedoel. Ja, nou ik.

47
00:07:32.352 --> 00:07:36.372
Maar ik ben er nog niet echt diep ingedoken van oké, hoe zit het dan precies? Want ik weet dus ook niet.

48
00:07:36.792 --> 00:07:48.992
Zijn het allemaal modellen waar de basis de de bron een eerder model was, bijvoorbeeld een, een lama of een mistral? En zijn ze gaan doortrainen? Is het een fine tune van of hebben we echt?

49
00:07:49.012 --> 00:07:58.052
Zijn het echt foundation modellen waarbij vanaf de grond af opgebouwd is getraind? Ik hoopte eigenlijk dat jij dat kon beantwoorden. Ja, dat dacht ik al dat jij dat dacht.

50
00:07:58.082 --> 00:08:05.412
Maar ik ga nu gewoon heel eerlijk toegeven dat ik dat echt niet zo goed weet. Ik ben daar nieuwsgierig naar. Ik had er de reflectie die ik er wel op heb.

51
00:08:05.452 --> 00:08:21.152
Los van het feit of ik daar geen antwoord op kan geven, is dat ik me wel besef dat in die hele open source closed source opener jij versus meta zoeken werk met meta zit heel erg op dat idee van gaan die lama weggeven en open jij houdt hun GPT model achter gesloten deuren.

52
00:08:21.772 --> 00:08:32.992
Is dat je daarmee natuurlijk ook geopolitiek en wereldwijd allerlei dingen teweegbracht brengt. Ik was nog een beetje naïef aan het nadenken over de concurrentiestrijd van inderdaad de Big Five.

53
00:08:33.492 --> 00:08:41.532
We praten natuurlijk over een wereld waarin veel meer partijen en machten er baat bij hebben dat er goede open source modellen zijn om op door te trainen. Ja.

54
00:08:41.632 --> 00:08:51.252
Nou, wat ik nu lees in de Financial Times is dat China dus misschien wel veel verder is in het wedijveren met de Verenigde Staten dan aanvankelijk werd gedacht. Wat denk jij, Alexander?

55
00:08:51.292 --> 00:08:58.382
Dit is ook een totale blinde vlek voor mij. Maar dat is toch wel opvallend dat jullie eigenlijk alleen maar naar het westen ook hebben zitten kijken. Ja, maar dit is niet alleen wij denk ik.

56
00:08:58.392 --> 00:09:10.511
Ik denk dat alle westerse media voornamelijk kijken naar wat Amerikaanse bedrijven en laten we Mistral niet uitvlakken. Maar ja. Maar wat er in Europa en in het westen wordt gemaakt, het wordt.

57
00:09:10.552 --> 00:09:21.532
Het is altijd een bijzin dat dat er in de Emiraten en in China ook dingen gemaakt worden. Maar inderdaad. China is al lang geen bijzin meer toch volgens mij? In die artikelen in westerse media wel dan.

58
00:09:21.562 --> 00:09:27.452
Dan is het een bijzin. Maar Milou, ik ben wel geïnteresseerd, want dit is. Dit kan natuurlijk gewoon een blinde vlek zijn. Een soort arrogantie.

59
00:09:27.512 --> 00:09:33.272
Een soort van het gebeurt allemaal hier en er wordt alleen achteraan gelopen op andere plekken.

60
00:09:33.792 --> 00:09:42.492
Kijk, zo benchmarks is een beetje tricky, want op een gegeven moment krijg je weer modellen die je gaan optimaliseren voor benchmarks. Dat is een beetje het gevaar. Dus dan heb je enorm goede synthetische benchmarks.

61
00:09:42.552 --> 00:09:50.552
Maar als je er als mens mee praat, valt het allemaal wel mee. Ook daar zijn weer allemaal tests voor. Ja, dat mensen testen, die leaderboards heb je ook, die hou ik wat meer in de gaten.

62
00:09:50.592 --> 00:10:01.732
Die vind ik minimaal zo interessant als die synthetische benchmarks. Maar het kan heel goed zo zijn dat ik dit gewoon niet heb gezien. Nee, er is nu. Vlak voordat we gingen opnemen vandaag.

63
00:10:01.812 --> 00:10:15.692
Toen las ik over video Vidu VI Du. Het is een een tekst, een video AI en die lijkt onversprekelijk op Sora. Qua de beelden die die produceert bedoel je? Ja, dat zou gewoon bijna hetzelfde als dat zijn.

64
00:10:15.712 --> 00:10:25.652
Dan ook bijna zo goed functioneren. En dat is van het Chinese AI bedrijf Sheng Shu. Sheng Shu Sheng Shu moet ik ook in de gaten gaan houden, maar het is. Je hebt wel. Het is wel echt een punt namelijk.

65
00:10:25.692 --> 00:10:37.512
Hoezo komt Sora uit en staan staat heel Twitter er vol mee En kunnen Amerikaanse media niet ophouden met erover schrijven? En dan komt Cheng Shu ermee en dan weet je niet eens wat Cheng Shu is. Dat is wel.

66
00:10:37.592 --> 00:10:46.452
Ik ben het met je eens. Dit is niet helemaal dit ik Ik zal. Ik zal me even beteren en hier inbrengen. Ik ben vooral benieuwd wat dat. Of dat goed nieuws is.

67
00:10:46.552 --> 00:10:55.772
En op zich zou je zeggen wat concurrentie erbij voor de big tech is niet zo vervelend. Daarnaast kun je ook je kanttekeningen plaatsen natuurlijk bij wat je wil dat China allemaal nog meer kan.

68
00:10:55.852 --> 00:11:07.392
Aangezien we al onze zorgen moeten maken over zoveel. Ja. Nou goed. Ja, ja, we gaan het, we gaan het volgen lijkt me vanaf nu. Hé jongens. Ja, we zullen het doen. We gaan naar China kijken. Oké, dan.

69
00:11:07.572 --> 00:11:22.452
Waren er wat nieuwe wearables deze week. Die ja, die aan mijn geestesoog verschenen. Bijvoorbeeld de Ray Ban Meta Smart glasses. Dat is niet per se super nieuw, maar wat wel nieuw is, is dat hij nu multi model AI heeft.

70
00:11:22.792 --> 00:11:32.292
Dus nou die bril, die heeft nu zijn camera erin en die kan dus zien wat jij ziet en dan kan hij objecten identificeren. Dus hij zegt van nou, nu sta je voor de Montelbaanstoren. Zeker.

71
00:11:32.832 --> 00:11:43.312
Activeren jij dat nu ook, Alexander? Nou, het is geo locked naar Amerika. Omdat denk ik dit hetzelfde is waarom wij elke keer in Europa super lang moeten wachten op op nieuwe AI.

72
00:11:43.432 --> 00:11:55.112
Omdat de wetgeving in Europa gewoon best wel streng is voor het introduceren van nieuwe functionaliteiten. Zo ook deze smart glasses, die overigens ook niet in Nederland te koop zijn.

73
00:11:55.152 --> 00:12:02.132
Daarvoor moet je naar België of naar Frankrijk om ze te kopen. Ik kan ze wel van harte aanbevelen. Je kan nu dus wel tegen het ding zeggen Hey meta, take a picture.

74
00:12:02.312 --> 00:12:13.871
En dan hoor je dus in je hoofd dat hij een foto aan het maken is. Want die stem, die gaat met een bot op je, op je, op je hoofd. Dat bot wat aan je hoofd. Ja, het bot. Je hoort het via de trillingen in het bot.

75
00:12:13.912 --> 00:12:22.952
Allemaal heel normaal. Hoor je een stem en die zegt dan ik maak een foto. En diezelfde technologie waarmee je tegen die bril kan praten, kun je natuurlijk ook voor andere dingen gebruiken. Zoals

76
00:12:23.932 --> 00:12:32.952
wat zie je nu, wat zie je nu? Of kun je deze menukaart in het Engels vertalen? Natuurlijk gewoon heel chill is. Ja. Het is een heel fijne vormfactor vind ik. Ik Ik.

77
00:12:33.332 --> 00:12:44.368
Regelmatig vergeet ik dat ik in dat ding een koptelefoon heb zitten waardoor ik toch mijn AirPods ook in doe. En dan realiseer ik me weer o ja, dit is zo.Dus je vergeet zo snel dat je een zonnebril op hebt.

78
00:12:44.428 --> 00:12:56.908
Helemaal in de zomer. Het is echt een hele fijne interface voor AI. Ik zie dit helemaal gebeuren. Ik ben heel enthousiast. Kan je al als je in de trein zit tegenover iemand zeggen: wie is dit?

79
00:12:57.468 --> 00:13:09.228
En dan zeggen: hé Martijn, zit niet zo raar te tweeten joh. [lacht] Nee, dat kan nog niet. Hij uh, Meta is natuurlijk wel zo slim om niet gezichtsherkenning, uh, uh, aan te zetten.

80
00:13:09.588 --> 00:13:18.097
Technisch is het natuurlijk goed mogelijk. Meta kan dit natuurlijk en misschien wel beter dan wie dan ook. Uhm, maar dat zetten ze keurig uit, want ze weten ook wel wat voor, uh,

81
00:13:19.228 --> 00:13:28.968
blikje met wormen ze openmaken als ze dat doen. En een, en een GitHub repository met een alternative firmware erop die jij erop flasht om dit alsnog te kunnen is nog niet geopend of gevonden.

82
00:13:29.368 --> 00:13:37.207
Ik neem aan dat het technisch met bijvoorbeeld Pim Eyes, dat is een service waarmee je gezichtsherkenning wel degelijk kan gebruiken, uh, voor, voor consumenten.

83
00:13:37.868 --> 00:13:45.048
Uh, ik weet niet of die een API hebben, want dan zou je het nog in elkaar kunnen sleutelen daadwerkelijk. Dat je, dat je voor iemand zit en dan vraagt: hoe heet deze persoon?

84
00:13:45.108 --> 00:13:52.158
Dan, dan is de dystopie natuurlijk helemaal compleet. Ik zit dit natuurlijk, dit grapje maak ik natuurlijk een beetje om dan toch het een beetje voor die Europese Unie op te nemen.

85
00:13:52.188 --> 00:14:00.368
Dat we misschien rustig deze dingen moeten introduceren, maar het zit er niet standaard in. Dat weet ik natuurlijk, maar Facebook zou het, slash Meta, wel heel makkelijk kunnen doen.

86
00:14:00.908 --> 00:14:12.828
Als iemand de data heeft, dan zijn zij het. Maar goed, dat gaan ze niet snel doen denk ik. Waar het mij persoonlijk ook heel handig dus voor lijkt, is als je in Polen of zo bent of in, nee, niet in Polen.

87
00:14:12.868 --> 00:14:18.228
In Servië ben ik een keer geweest. Ja. En daar zat ik in een restaurant en dan moet je de menukaart ontcijferen. Ja.

88
00:14:18.308 --> 00:14:27.208
En toen ben ik letterlijk een kwartier bezig geweest met opzoeken welke letter wat precies betekent, want ik ken dat alfabet niet. Ze, ze werken met dat Russische alfabet. Ik weet niet hoe dat heet. Cyrillisch?

89
00:14:27.528 --> 00:14:39.548
En, Cyrillisch? Toch? Ja. Ja, dat is het. En ik zat uit te pluizen, uit te pluizen. Kwartier verder kwam ik erachter dat ik Spa rood had zitten [lacht] uitpluizen. Maar dat kan zo'n bril dus ook gewoon voor je zien.

90
00:14:39.788 --> 00:14:50.148
En ook over de weg als je, uh, de nummerborden of nee, hoe heten die dingen? De, de, de borden boven de weg hoef je ook niet meer op te zoeken. Ja. Waanzinnig handig. Het wordt geweldig. Het wordt een geweldige toekomst.

91
00:14:50.177 --> 00:14:59.527
Helemaal als er, als, als het, ik, ik heb mezelf voorgenomen om de komende weken wat meer de Vision Pro te gebruiken, want ik heb dat ding, maar ik gebruik het nooit. Het ligt gewoon stof te happen. Mhmm.

92
00:14:59.708 --> 00:15:04.088
En het is natuurlijk wel makkelijk als je, als die, die bril is nu nog groot en bulky en zo.

93
00:15:04.228 --> 00:15:08.968
Maar het is natuurlijk voorstelbaar dat diezelfde technologie in een zonnebril komt te zitten waardoor die niet meer zo bulky is.

94
00:15:09.008 --> 00:15:19.508
En dan heb je, dan heb je dus iets wat én in je hoofd kan praten én daadwerkelijk de menukaart in het Engels kan laten zien. Zoals, uh, Google Lens dat ook kan met een foto en dan de tekst eroverheen.

95
00:15:19.548 --> 00:15:29.208
Weet je wel, de Nederlandse tekst. Dat wordt zo chill. Ja. Ik heb er zo'n zin in. Het wordt zo geweldig. Het gaat allemaal gebeuren de komende jaren. Wietse die leunt met zijn hand tegen zijn hoofd.

96
00:15:29.328 --> 00:15:35.348
Zie ik opeens [lacht] op de camera. Och, och och. Ach MB, ach MB. Nee, ik zit. Voor jou maken we een open source bril Wietse.

97
00:15:35.728 --> 00:15:43.788
Nou, ik zat te denken dat wat natuurlijk die, uh, wat ik nog steeds gewoon een erg leuke, interessante toepassing vind van taalmodellen is die, uh, brieven simpel maker app.

98
00:15:44.448 --> 00:15:52.768
Uh, sorry als ik dat verkeerd uitspreek, maar dat je een brief kan fotograferen van de belastingdienst en dat ie zegt: joh, dit is wat er aan de hand is, dit is wat je moet doen. Oh, dat is top. Waardoor je niet in die.

99
00:15:52.828 --> 00:16:00.628
Ja, dat is er. Dat is echt te gek. En als dat natuurlijk in zo'n bril zit en die zegt: joh, ik zie dat je een moeilijke brief aan het lezen bent, zal ik je even helpen? Ja. Natuurlijk hartstikke gaaf.

100
00:16:00.668 --> 00:16:09.998
Dus ik, ik wil het, ik kan echt wel toegeven dat er natuurlijk fantastische oplossingen zijn daarvoor. Oké. Voordat jij het binnen gaat, gaat brengen. Ga ik de Rabbit. Kom gerust maar. Geen maar deze keer.

101
00:16:10.028 --> 00:16:16.608
Oké, heel goed. We gaan het over de Rabbit R1 ook nog even hebben. Dat is ook weer zo'n wearable. Ik heb een filmpje zitten kijken van waar die wordt gepresenteerd. Mhmm.

102
00:16:17.108 --> 00:16:25.608
Het is een soort, uh, rode blokje, een vierkante doos en je, je neemt hem eigenlijk met je mee op pad. Je moet hem in je hand vasthouden. Hij kan ook de, dus de dingen zien.

103
00:16:26.528 --> 00:16:36.258
Uh, en ja, ik, ik vind het, ik vind het er leuk uitzien, maar ik denk dan toch van: ja, ga je dat, ga je dat nou echt gebruiken? Ik weet het niet. Wietse, je hebt, je hebt ook naar dit filmpje gekeken geloof ik, hè?

104
00:16:36.368 --> 00:16:44.908
Zeker. Ja, ik heb meerdere gekeken, want het was weer zo, het was weer zo gek, weet je, met die AI pen, pin. Uh, toen was het van meh en toen vond iedereen hem meh. Toen vond ik hem toch weer cool.

105
00:16:45.288 --> 00:16:53.928
Nu bij die Rabbit had ik zoiets van: wow, Teenage Engineering heeft hem ontworpen. Wat een grappig ding. De prijs is best wel right. De interface is best wel origineel en funky en Nintendo-achtig.

106
00:16:54.528 --> 00:17:01.688
En toen vond ik hem daarna weer stom, want bleek dat de software erachter helemaal poep was en dat het eigenlijk alleen maar een wrapper voor OpenAI is. Nu heb ik dit filmpje gezien denk ik ja, maar ja.

107
00:17:01.788 --> 00:17:09.068
Weet je wat het is? ChatGPT was ook alleen maar een hele slimme prompt en een geüpdatete GPT. Dat je er ineens mee kon chatten.

108
00:17:09.088 --> 00:17:18.208
En ineens boem, ontplofte dat gewoon omdat mensen dachten: het is niet alleen maar een stukje tekst typen van een boek en dan zeggen: verzin de volgende regels maar, maar je kan een gesprek voeren.

109
00:17:18.248 --> 00:17:25.268
Dat was echt een soort van het, ja, de killer app of het explosiemoment van, uh, taalmodellen. En nu met die Rabbit.

110
00:17:25.388 --> 00:17:35.228
Ik zit dus die videootjes te kijken en dan gaat iedereen heel de tijd fotootjes nemen van iets en vragen: wat is dit? Ik ben dan zo'n cynische tech guy die denkt: ja, dit slaat nergens op, dit is gewoon GPT 4V.

111
00:17:35.868 --> 00:17:42.328
Die kan al foto's voor jou bekijken en dat uitleggen. Maar dan zoom ik even uit en denk: heel veel mensen weten dat helemaal niet dat dat kan.

112
00:17:43.548 --> 00:17:53.628
Sowieso hebben ze nog niet, hè, ik, ik, ik vind het nog steeds indrukwekkend dat je dus een foto kan uploaden in ChatGPT en kan zeggen: joh, ik heb hier een menukaart, ik ben in Servië. Help! Dat kan al. Mhmm.

113
00:17:53.648 --> 00:18:04.028
Maar het moment dat je het dus stopt in een leuk gezellig apparaatje wat eruit ziet als iets, als een nieuwe gadget. En mensen gaan er dan mee spelen en dan door hun hele huis heen lopen en alle planten foto's van maken.

114
00:18:04.128 --> 00:18:12.328
En dat ding praat gezellig tegen je terug met een gez-, leuke konijn in beeld. Dan kan ik cynisch zeggen: ja, het is alleen maar een laagje over, maar dat is onzin.

115
00:18:12.768 --> 00:18:23.428
Het is, het is iets waardoor het nu voor meer mensen, in ieder geval de reviewers van het apparaat, blijkbaar klikt in hun hoofd van: hé, maar wacht even, ik heb een camera en die kan zeggen wat hij ziet.

116
00:18:24.028 --> 00:18:28.548
En dat is blijkbaar een enorm ding nog steeds voor mensen om mee te maken in hun hand. Ja.

117
00:18:28.608 --> 00:18:41.328
Dus dat is even mijn reactie op de, vooral verbazing van mijn kant dat ik denk dat het dan deze feature is die overal zo uitgelicht wordt. Daar is niks van Rabbit bij. Dat lenen ze gewoon van OpenAI. Ja, ja.

118
00:18:41.368 --> 00:18:44.768
Dus het wordt toegankelijk gemaakt voor weer een, een nieuw deel van de mensen.

119
00:18:44.808 --> 00:18:52.404
Net als wat we vorige week zeiden over dat het in-geïntegreerd wordt in je WhatsApp of in je Instagram.Het is een manier om het weer dichtbij te brengen.

120
00:18:53.264 --> 00:19:09.144
Ja, en ik denk dat in de Dat zijn een beetje de roddeltjes slash hints die gegeven worden door OpenAI in interviews dat zij ook met hardware bezig zijn. In die een beetje pendulum rabbit R1 AI pin pen.

121
00:19:10.004 --> 00:19:20.784
Sorry in die in die daar gaat iets, daar zit iets. Ik denk dat Alexander en ik allebei weer voelen van ja, die PDA, die willen we. Niemand anders wil hem nog. Maar er komt een dag, dan heb.

122
00:19:20.824 --> 00:19:30.704
Dan kan iemand dit, deze form factor, dit concept op een manier voor een prijs met een met een interface in de markt zetten dat het een ding wordt.

123
00:19:30.764 --> 00:19:41.904
En de vraag is dan wel is dat dan niet gewoon een Apple Watch met een camera? Of is dat niet gewoon een betere serie drie op een iPhone waar al een camera in zit? Het is even de vraag of dit een apparaat nodig heeft.

124
00:19:42.064 --> 00:19:58.204
Daar ben ik nog niet uit. Ja. Oké. Oké. Volgende nieuwtje wat ik tegenkwam. Daarna gaan we naar Wytse link dump. Maar ik kwam tegen dat Drake. Die had 111 nummer gemaakt waarin de de stem van Tupac Shakur te horen was.

125
00:19:58.264 --> 00:20:09.824
AI natuurlijk. Ik kwam heel veel ophef over, dus dat moest weer offline. Maar daardoor moest ik ook denken aan nou wat er afgelopen zaterdagnacht geloof ik is dat programma wordt uitgezonden. Even tot hier.

126
00:20:10.184 --> 00:20:20.904
Die ging ook spelen met AI 10.22u. Die hebben het ontdekt. Nacht voor Milou. Hebben jullie? Ja, dat is. Ik ga om 10.00u naar bed. Ja. Hebben jullie het gezien of niet? Ja. Oh, dan weet jij het.

127
00:20:20.944 --> 00:20:27.084
Oh, dan ga ik het aan Alexander vragen, want ze hebben dus AI gebruikt om wat stemmen te clonen in een liedje van Typhoon.

128
00:20:27.124 --> 00:20:31.484
Typhoon was zichzelf wel echt, maar er worden wel eens wat stemmen geclond en ik vond het buitengewoon echt klinken.

129
00:20:31.544 --> 00:20:44.024
Maar ik heb het ook gezien, dus misschien is het voor mij ook makkelijker om te zeggen van ja, dat is het helemaal. Ik ben benieuwd wie jij hoort. Oké. Er wordt twijfel gezaaid. Wordt hier wel of niet genaaid?

130
00:20:44.444 --> 00:20:59.684
En de feiten zijn geroofd en de twijfel wordt geloofd. Is die vent daar voor je deur nou een agent of een poseur? Is de bank die belt de bank nog wel? Of pakt ie geld? En dank je wel.

131
00:21:00.344 --> 00:21:12.184
Ja, wie horen wij behalve Typhoon zelf natuurlijk. Ik heb echt werkelijk geen idee. Nee. Oh wat jammer. Ik dacht dat hoor je waarschijnlijk wel meteen. Maar die laatste hoorde je toch wel? Willem-Alexander Echt?

132
00:21:12.444 --> 00:21:24.173
Ja, maar dit ik nee. Caroline van der Plas hoorden we echt. De eerste stem was Taylor Swift. Die vond ik nog het minst lijken. Ja, maar dit is misschien dat het met beeld erbij dat je dat dan begrijpt.

133
00:21:24.194 --> 00:21:31.404
Maar als je dit alleen maar luistert, dan word je. Ben je alleen maar in verwarring. Want ik verwacht niet dat Caroline van der Plas kan zingen of dat Taylor Swift Nederlands spreekt.

134
00:21:31.824 --> 00:21:45.764
Dus dat is dan zo verwarrend als je alleen de audio hoort dat dat niet. Dat pik ik er niet uit. Nee, oké, ik vond het. Mag ik hem nog een keer laten horen? Mag. Mag. Er wordt. Taylor Swift. Oh. Wordt hier. Caroline.

135
00:21:46.444 --> 00:22:02.083
Oh ja, en de feiten zijn geroofd. Cruijff. En de twijfel wordt geloofd. Willem-Alexander is die vent Typhoon. Oké, dat is wel vet. Oké, toegegeven. Toegegeven. Als je het erbij zegt, dan herken ik het wel. Ja.

136
00:22:02.204 --> 00:22:10.944
Nou goed, dat is een experimentje. Ik wel. In ieder geval is het opgepikt en horen we eindelijk iets nieuws in de Nederlandse media over AI. En dat is ook weer een opsteker. Ongetwijfeld gecommuniceerd.

137
00:22:10.984 --> 00:22:18.994
Lubach heeft ook een item gedaan. Ja, oké, die zit er ook wel redelijk op. Maar ik moet zeggen, ik krijg hierna weer allemaal berichtjes van mensen van kijk, dit is toch waar jij het steeds over hebt?

138
00:22:19.064 --> 00:22:28.904
Of die aardappel die je de deur uit duwen omdat het wel echt nacht is inmiddels. Ga weg. Het is gewoon weer van zo'n jas, net als een rabbit. Is dit een manier om het in mensen hun huiskamers te krijgen?

139
00:22:28.984 --> 00:22:39.624
Ja, maar ik vond het. Ik vond sowieso de productie ervan goed. Ik ben wel een beetje kritisch dat ik denk maar het kan al veel beter dan dit. Maar weet je, het is hartstikke veel werk om dit allemaal te maken.

140
00:22:39.664 --> 00:22:46.624
En misschien als ik er zelf mee aan de gang ga, kom ik ook. Is dit ook het level waarop ik het doe? Maar het was een soort public service announcement.

141
00:22:46.764 --> 00:22:53.344
Zo voelde het voor mij een beetje zo van joh jongens, let even een beetje op als je volgende keer een WhatsApp voice bericht krijgt. Je weet maar nooit.

142
00:22:53.714 --> 00:22:59.564
Het zijn de grapjes en de dingen die werden aangehaald, want er zit meer om dit fragment heen waren heel erg waar wij dit ook.

143
00:22:59.584 --> 00:23:13.344
Er is nog niemand die echt de stap heeft genomen om hier echt een schandaal van te maken, namelijk neem één grote Nederlandse artiest. Wat is nu de grootste Nederlandse artiest? Nou maakt ook niet uit. Antoon.

144
00:23:13.784 --> 00:23:22.804
Antoon Stel we pakken Antoon en we. We maken een. We maken een nummer waarbij we. Moet wel even een beetje hit potentie hebben.

145
00:23:22.844 --> 00:23:30.804
Dus je pakt een concurrerende muzikant en die gebruikt de stem van Antoon en dan ga je wachten tot dat Antoon suit. Ja of nee? Dat lijkt me nou leuk.

146
00:23:31.304 --> 00:23:40.464
Laat dit maar eens bij de rechter komen om te horen wat nou hoe de vork nou aan de steel zit. Even opschudden. Ja. Voel je je zelf niet geroepen? Ja, dan moet ik even een hit hit hitje maken.

147
00:23:40.504 --> 00:23:50.484
Milou, Dat is wel een groot probleem. Nou, ik heb jou een paar keer bezig gezien. Ja, dat is wel waar. Ik slinger Suno aan en gooi er Antoon overheen en kijken of Antoon hapt, want hij moet dan wel happen.

148
00:23:50.984 --> 00:23:54.604
Dan kom jij weer met wallen onder je ogen binnen omdat je weer een nachtje Suno hebt gedaan.

149
00:23:55.064 --> 00:24:05.504
Maar ik zit wel te denken dat ik ben benieuwd bij YouTube wanneer daar iemand jouw muziek upload en wat echt jouw muziek is, dan kan je hem of eraf gooien of zeggen nou weet je wat, laat maar staan.

150
00:24:05.844 --> 00:24:16.544
Blijkbaar willen mensen dit, maar ik krijg het geld. Kan je dat dan ook als er een fake Antoon track gemaakt is die een hit wordt? Dat is wat jij bedoelde Alexander. En dan dat Antoon zegt Ik vind het allemaal prima.

151
00:24:16.804 --> 00:24:25.844
Lekker nummer, ik ga hem zelfs mee optreden, ook al heb ik er niets mee te maken eigenlijk, maar ik pak ook het geld. Royalty's zijn voor Antoon. Ja. Ja, zijn stem. Ja. Ja.

152
00:24:26.764 --> 00:24:37.044
Maar goed, volgens mij zijn we daar wel doorheen. Het is daarom. Dit was mijn nieuws. En er is natuurlijk altijd ook nog het nieuws dat aan het aan mijn oog ontglipt in ieder geval. En daarvoor hebben we Wietse.

153
00:24:37.384 --> 00:24:48.044
Wat moeten we weten volgens Wietse? Er staan vijf links. Wietse Dat vijf. Nee toch? Ik vind dat iets te enthousiast. Ja, het waren er zes. Dit is voor de komende weken. Dit is mijn backlog. Ga je nu helemaal weg? Oké.

154
00:24:48.264 --> 00:24:56.804
Kijk waar wil jij? Wat vind jij? Wat springt eruit? Milou? Want dan pakken we dat gewoon op. Dat is leuk. Zal ik de meest onleesbare dan uitzoeken? Perfect, Dat houden we er iedere week in.

155
00:24:58.224 --> 00:25:12.212
Goed, dan gaan we naar Apple Introduces Open e.Of ELM en Efficient Language Model Family with Open source training and inference framework. Gaan we naar Hugging face? Clickbait. Waar zijn we? Wat? Wat is bijzonder?

156
00:25:12.732 --> 00:25:24.732
Apple doet mee in die Hugging Face community. Dat is de Hugging Face community. Dat ging je net uitleggen. Sorry. Ja. Ken jij Oké, het is geen cult. Dat zou iedere cult zeggen. Het is een community van mensen online.

157
00:25:24.742 --> 00:25:31.332
Het is eigenlijk 111 GitHub achtig platform waar dus normaal ontwikkelaars komen in de breedste zin van het woord. Software en hardware. Dat is GitHub.

158
00:25:31.972 --> 00:25:42.672
Hugging Face is een beetje de GitHub geworden voor taalmodellen, dus daar staan een beetje de top honderd op van bijvoorbeeld zo'n modellen top honderd. Vindt vindt dan plaats op Hugging Face.

159
00:25:42.772 --> 00:25:53.212
Maar als jij een toffe nieuwe versie van Mistral hebt getraind op Nederlandse cultuur, zodat Bassie en Adriaan erin staan, waar? Waar presenteer je die dan? Die zet je dan op Hugging Face.

160
00:25:53.612 --> 00:26:01.912
Dat is dat is en een plek waar je dat tentoon kan stellen als het ware. Het is een plek waar veel die veel mensen in de gaten houden, maar het is ook een plek die inmiddels geïntegreerd zit in software.

161
00:26:02.372 --> 00:26:12.292
Dus als jij dan een bijvoorbeeld LM studio thuis draait, dan kan je zeggen zoek even die op die die jongen geplaatst heeft of meisje. Klik staat hij op je computer kan je mee spelen.

162
00:26:12.332 --> 00:26:17.032
Dus het is een infrastructuur platform voor de open source taalmodellen wereld.

163
00:26:17.312 --> 00:26:29.512
Dan is het natuurlijk best wel tof als een Microsoft en een meta zeggen nou, als wij iets uitbrengen dan zetten we het niet alleen maar zo als mistral op een torrent, maar we doen ook meteen de Hugging Face link erbij.

164
00:26:29.752 --> 00:26:35.152
Dat is een soort cultureel fenomeen geworden. Hugging Face in die community. Het is ook een heel schattig Hugging Face emoji.

165
00:26:35.192 --> 00:26:42.712
Dat trapje ziet er allemaal heel onprofessioneel uit, maar stiekem is het best wel technisch in orde. En Apple doet nu ook mee. Waarmee doen zij mee?

166
00:26:43.772 --> 00:26:48.592
Nou, er zijn een aantal mensen die werken voor hun team die heel graag publiceren, anders krijg je ze niet in dienst.

167
00:26:48.892 --> 00:26:58.972
Die willen en artikelen publiceren wat ze hebben uitgevonden en de resultaten van dat artikel kunnen publiceren op Hugging Face. En wat is daar de motivatie achter van hun? Waarom willen ze dat? Nou,

168
00:26:59.912 --> 00:27:11.632
de meeste mensen die nu betrokken zijn bij gewoon hardcore, oftewel inhoudelijk machine learning taalmodellen en dit soort zaken, dat zijn academici met bepaalde idealen die zeggen prima, ik ga niet bij een bedrijf.

169
00:27:11.672 --> 00:27:20.572
Niet iedereen, maar het merendeel zegt ik ga niet bij een bedrijf werken waarin dit niet deze vruchten niet aan de hele wereld toekomen. Dus op die manier krijgt Meta heel veel personeel.

170
00:27:20.632 --> 00:27:28.772
Maar heeft Apple is nu een soort van de hand gedwongen de arm gedwongen om ook te gaan publiceren. Apple is heel erg geheimzinnig. Waarom vind ik dat leuk?

171
00:27:29.172 --> 00:27:40.032
Dan kan ik kijken wat ze publiceren nu ze moeten en een klein beetje gaan fantaseren. Waarom hebben ze dit gemaakt? Want zij brengen dus nu modellen uit die heel goed werken als er weinig geheugen in een machine zit.

172
00:27:40.212 --> 00:27:45.712
Als er een fabrikant is die weinig geheugen in de machine stopt, is het Apple. Dan weet ik al een beetje oké, interessant.

173
00:27:45.772 --> 00:28:00.832
Ze zijn aan het proberen toch die dingen deels draaiend te krijgen op smartphones en iPads en laptops. En op die manier kan je eigenlijk. Ik denk dat het fascinerend is omdat je kunt zien wat er gebeurt als een gesloten

174
00:28:01.772 --> 00:28:11.632
bedrijf als Apple gedwongen wordt om te publiceren met wel wat voor. Wat gaan ze dan publiceren? Waar ligt. Waar ligt dan de nadruk op wat ze publiceren? Dus het is boeiend.

175
00:28:11.812 --> 00:28:22.032
En mijn tip hierbij is eigenlijk klik dan ook even op Apple, want die hebben dus een account daar en hou het in de gaten als je dat interessant vindt. Ja, want wat heb je eigenlijk aan die informatie?

176
00:28:22.042 --> 00:28:30.122
Ik kan me op zich voorstellen dat je bijvoorbeeld ik ben dan wel veel bezig met beleggen. Dat je op die manier als je dat dan in de gaten kan houden.

177
00:28:30.132 --> 00:28:41.212
Je kan gewoon letterlijk zien eigenlijk wat zij aan het bouwen zijn, waar ze mee bezig zijn. Dat je op basis daarvan dat je dat weer mee kan nemen in je eigen keuzes van ga je hier iets mee doen? Nee, ik snap hem.

178
00:28:41.292 --> 00:28:43.892
Je zou een beetje kunnen speculeren dat dit gebeurt natuurlijk ook.

179
00:28:44.032 --> 00:28:53.332
Dit zijn een beetje die weak signals in de markt waardoor je al denkt van dat is hetzelfde als dat er een directeur van een voetbalmaatschappij wordt gezien aan een tafeltje met champagne om 11.00u met een bepaalde voetballer.

180
00:28:53.352 --> 00:29:04.152
Dat je denkt nou, als die gaan aanschaffen is wel interessant. Nou, dit kan je ook een beetje hieruit halen. Ik doe het meer uit fascinatie en omdat ik dan probeer die puzzelstukjes een beetje te plaatsen.

181
00:29:04.322 --> 00:29:15.262
Het zijn namelijk. Het zijn wel losse stukjes. Ik zie het meer als een spelletje denk ik. Ja, ja. Ik vind dat gewoon een detective. Ja, ja. Dus ze lichten het tipje van de sluier op. Maar mag ik je iets vragen?

182
00:29:15.492 --> 00:29:27.072
Wat is het nou, een Efficient Language Model Family with Open source training en inference framework? De het de E is het belangrijkste Efficient. Ze zitten.

183
00:29:27.092 --> 00:29:38.912
Kijk, Apple zit gewoon echt met een probleem dat zij erom bekend staan dat ze dus eigenlijk. Nou ja, als je het plat bekijkt schandalig weinig geheugen en dan heb ik het niet over de hoeveelheid dat je kan opslaan.

184
00:29:38.932 --> 00:29:51.072
Dat is ook heel weinig bij Apple als je weet wat zo'n chipje kost. Apple doet echt 200, 200, 300, 400, 500% vragen voor een chipje, maar ik heb het nu over het werkgeheugen van een iPhone, iPad en MacBook.

185
00:29:51.512 --> 00:30:03.052
Bijzonder laag. Daar heeft Apple niet zoveel last van gehad tot nu toe, want ze hebben een ontzettend efficiënt besturingssysteem waardoor je. Een Windows laptop heeft misschien zestien gigabyte intern geheugen nodig.

186
00:30:03.312 --> 00:30:09.892
Een MacBook kan prima met acht af. Maar wat gebeurt er nu? We zitten ineens in een wereld van taalmodellen. En die vreten geheugen.

187
00:30:10.072 --> 00:30:18.992
Apple is eigenlijk een beetje in de hoek van we hebben nu, want al die apparaten zijn al verkocht en ieder apparaat wat je koopt, nou, dat is wat Apple belooft in ieder geval is vijf jaar relevant.

188
00:30:19.272 --> 00:30:24.792
Dat je hem een beetje af kunnen schrijven, zeg maar fiscaal gezien als het ware. Dus jij hebt een hele vloot al op de weg rijden.

189
00:30:24.912 --> 00:30:35.912
Even een metafoor van de auto-industrie, die allemaal niet de juiste hardware hebben om de volgende revolutie te kunnen draaien. Dat is problematisch. Ze zijn nu wel op de hardware front. We verwachten dat een beetje.

190
00:30:35.932 --> 00:30:44.892
WWDC, de Apple Developer Conference komt er weer aan. Verwachten we de M4-processor met hopelijk meer geheugen zodat zij laten zien wij gaan deze AI.

191
00:30:45.332 --> 00:30:54.852
Wij snappen dat er een AI fenomeen is en wij gaan onze hardware daar ook deels op aanpassen. Maar tegelijkertijd heb je nou eenmaal die hele vloot die je nog vijf jaar tot langer moet ondersteunen.

192
00:30:55.032 --> 00:31:04.356
En dan zal je taalmodellen moeten gaan ontwikkelen die efficient heel efficiënt omgaan met zowel stroom.Als geheugen. Ik heb dus ja dit.

193
00:31:04.416 --> 00:31:14.696
Ik heb afgelopen weekend een nieuwe iPhone gekocht en ik dacht eigenlijk misschien heb ik dat wel op een heel verkeerd moment gedaan, want straks kan deze helemaal niks meer. Ai is het net daarvoor? Nou oké, nee.

194
00:31:14.716 --> 00:31:24.596
Maar serieus, wat je nu zegt, dit is dit is echt geniaal, want dit is denk ik de vijftien en dan met twaalf gig. Niemand weet hoeveel gig er in hun iPhone zit. De veertien, de veertien en ik heb 128.

195
00:31:24.836 --> 00:31:30.796
Ja, maar dat is dus de andere. Als je als je dat geheugen was Milous, had je goed. Maar dat is niet het geheugen, want dat is je opslag zeg maar.

196
00:31:31.276 --> 00:31:41.136
Ik denk dat er zoiets van zes of zo intern geheugen is, eigenlijk het werkgeheugen. Dat weet ik wat een stuk sneller is dan je opslaggeheugen. Maar die zes gig is dan het maximaal waar jij een model in kan laden.

197
00:31:41.156 --> 00:31:49.456
Nu maakt het. Er kan dus ongeveer 76 miljoen parameter model in. Nou, dat is de intelligentie van een baby garnaal. Ongeveer wat je daar nu mee kan draaien.

198
00:31:49.465 --> 00:31:57.896
Het is niet veel en er zijn al appjes die jij gewoon kan installeren en dan kan je gewoon aandrukken zo fai drie of lama drie en dan draait het gewoon echt op jouw iPhone. Dan zet je wifi uit.

199
00:31:57.916 --> 00:32:08.026
Kan je gewoon kletsen, maar dan kom je er achter dit is er al, maar dan kom je er achter dit is niet best. Nee, dit is geen GPT. Het is een hele wazige buurman waar ik nu mee praat. En

200
00:32:08.956 --> 00:32:20.536
ik weet niet wat daar gebeurd is, maar er zijn dus nu trucks. Er zijn dus nu allerlei ze. Met dat bedoel ik de hele de hele community mee things aan het uitvinden kan je heel snel stukjes erin en eruit stoppen. Kan je.

201
00:32:20.666 --> 00:32:28.916
Kan je gaan gokken dat je zegt als iemand die vraag begint te stellen, laat ik vlug die vier gig uit die zeventig daarin en dan schuif ik die andere weer daarheen. Dit soort trucjes zijn ze nu aan het doen.

202
00:32:29.056 --> 00:32:39.696
Dat je met minder geheugen door heel snel in en uit te wisselen toch een hoop kan doen. En kleine modellen slimmer maken. Dus dat je nou eenmaal gewoon met minder geheugen sowieso meer intelligentie hebt.

203
00:32:40.156 --> 00:32:51.336
En dat is de laatste dan. Dan hou ik even mijn mond weer, want het wordt een hele lange uitzending is en heb ik heb hier nog weinig over kunnen vinden. Ik ik, want ik kende ik weet niet de juiste terminologie hiervoor.

204
00:32:51.356 --> 00:32:55.856
Dat is vaak het probleem. In die academische wereld hebben ze deze term dit fenomeen al lang uitgevonden.

205
00:32:55.896 --> 00:33:04.796
Ik weet dan niet hoe het heet, maar ik ben aan het zoeken naar een soort hybride taal model, namelijk een taal model die de Engelse taal of de taal van jouw, jouw regio.

206
00:33:05.016 --> 00:33:11.976
Stel je installeert je iPhone, je stelt hem in op Nederlands, dan download Apple het Nederlands taal model. Dat is een taal model.

207
00:33:12.016 --> 00:33:23.196
Die spreekt de taal vloeiend, kent jouw telefoon helemaal door en door, kan wekkers zetten, noem maar op, maar is verder heel dom. Als in heeft geen bildung, geen cultuur.

208
00:33:23.976 --> 00:33:35.716
Ieder moment dat jij een vraag stelt die gaat over joh, wie was hij? En dan denkt hij ah, en dan gaat hij vlug naar het internet datacenters van Apple waar ze hun eigen chips hebben hangen en die geeft dan het antwoord.

209
00:33:35.976 --> 00:33:44.476
Dus dat je een stukje van het taal model op je iPhone hebt staan die een heel mooi vloeiend gesprek met jou kan vinden voeren. Dus die is communicatief heel scherp.

210
00:33:44.956 --> 00:33:52.416
Maar het moment dat er enige feitenkennis of cultuur moet zijn, kan hij heel snel naar achter zonder dat jij dat doorhebt. Om toch naar het datacenter te gaan.

211
00:33:52.436 --> 00:34:02.036
En ik denk dat Apple een beetje gaat zoeken naar een manier hoe. Met een slechte verbinding en, en, en snelle snelheid kan je toch een bluf model bluffen wat er eigenlijk niet op past.

212
00:34:02.096 --> 00:34:15.976
Ja, en daar dus de de E van efficiënt. Dat is de belangrijkste letter. Ja, ja. Nou, ik ben. Ja, zo'n suf linkje kan dan toch. Wel weer interessant hoorcollege dit. Dank je wel. Ja, echt waar.

213
00:34:16.016 --> 00:34:22.586
Ja, want ik zat hier wel echt daadwerkelijk zorgen over of nou zorgen. Ik dacht wel hoe hoe moet dat straks? Zit ik nou op het verkeerde moment iets?

214
00:34:22.776 --> 00:34:34.796
En dit wordt het jaar waarin Apple AI als belangrijk onderdeel van iOS achttien gaat maken. Dus ook op op jouw telefoon gaat iOS achttien draaien en wordt AI wordt daar een groot, groot onderdeel van.

215
00:34:34.916 --> 00:34:43.956
Ik denk het grootste Wytse is dat inmiddels. Wat we uit de geruchten wel kunnen kunnen harken dat Apple hier wel echt een groot punt van gaat maken dat AI onderdeel is van iOS achttien.

216
00:34:45.056 --> 00:34:56.196
Ja, maar wel op een manier dat jij en ik Alexander niet helemaal verwachten als in verwachten in het verleden inmiddels wel een beetje aan het wennen zijn dat dat gewoon een best een diepe integratie gaat zijn met zowel Google als OpenAI.

217
00:34:56.416 --> 00:35:06.516
Allebei wat een beetje gek gaat voelen. Ja, dat denk ik wel. Omdat ze gewoon niet op tijd zijn. Dit gaat niet lukken, want je moet je voorstellen. Er wordt nu gespeculeerd over de M4.

218
00:35:06.576 --> 00:35:15.496
Dat is dan de allernieuwste processor. Dat die dan nog even AI aanpassingen gaat krijgen. Ja, dat is dat is klinkklare onzin. Die dingen zijn achttien maanden geleden al in steen gezet hoe ze eruit zien.

219
00:35:15.816 --> 00:35:27.956
Je kan niet zomaar even een chipje bij ASML laten maken, snap je? Het zijn jaren aan processen. Je moet veel verder vooraf al dingen op papier hebben afgesproken voordat je. Ja, je kan niet last minute roepen.

220
00:35:28.336 --> 00:35:41.276
Last minute bedoel ik mee. Een half jaar geleden. Doe toch maar even nog een ander chip trucjes en partnerships. Heel veel moeten gaan gladstrijken tot ze komen tot ja, een beetje de visie van Apple als echte AI company.

221
00:35:41.336 --> 00:35:50.016
Ja nou op zich past de E van efficiënt daar ook wel in. Als iedereen gewoon zijn eigen ding doet en dan een beetje gaat uitwisselen, dan komen we er ook wel. Niet de M van marktmacht.

222
00:35:50.156 --> 00:35:58.556
Maar goed, we kijken wel even hoe ze daar doen. En, en, en. Apple heeft gewoon zo hard ingezet tot billboards in San Francisco aan toe op privacy. Ja.

223
00:35:58.896 --> 00:36:09.376
Om van die messaging zo snel af te stappen en te zeggen ach, we sturen wel je hele psychologische toestand naar OpenAI toe in San Francisco. In mijn ogen is dat past dat niet. Ik hoor een bruggetje.

224
00:36:10.296 --> 00:36:17.616
Psychologische toestand dat dat deed iets in mijn hoofd. O ja, inderdaad, bij mij opeens ook. Ja, want ik zat al eerst nogal.

225
00:36:17.656 --> 00:36:26.056
Ik zat al met mijn hoofd bij de techno fix, want straks gaan we het probleem van Willem Treur techno fixen. Podcast maker, jazzgitarist en nog veel meer. Hij is eigenlijk niet te vatten in een in een hokje.

226
00:36:26.656 --> 00:36:36.956
Maar inderdaad eerst een nieuw gat in de markt voor AI start-ups. Namelijk ouders die een kind hebben verloren. Of mensen die een dierbare hebben verloren. Entree de AI hiernamaals industrie.

227
00:36:37.096 --> 00:36:45.576
Het is een enorm verlies, de dood van je kind. Maar wij bieden je de opstanding van je zoon of dochter. En dat is niet een heel hoop vertrouwen het geworden, maar dat is de Ja.

228
00:36:45.656 --> 00:36:50.756
Dat is een van de van de vele beloften van AI van een van die AI start-ups. Er zijn er echt veel.

229
00:36:50.856 --> 00:37:00.836
Ik heb geprobeerd ze op een rijtje te zetten, maar dankzij robots, of je zou het dus ook raar bots kunnen noemen, kun je weer communiceren, bijvoorbeeld met verloren dierbaren.

230
00:37:01.416 --> 00:37:10.536
Ja, het helpt je eigenlijk gewoon een stukje rouw te verwerken. En wat voor bedrijf is dit? Dit is geen geen Europees of Amerikaans bedrijf neem ik aan, die zo'n toon aanslaat.

231
00:37:10.576 --> 00:37:21.815
Dit is het het Chinese super brain.Zij creëren avatars, dus dat zijn ook wel eens die ja, zij noemen het death bots. Leuk. Ja. Jezus Christus. Is dit vrij vertaald?

232
00:37:21.896 --> 00:37:31.606
Dus een avatar, dat is dan gewoon de, degene die overleden is die, uh, nou daar vul je wat info in. Uhm, beantwoord je wat vragen, uh, laat je zijn stem horen?

233
00:37:31.676 --> 00:37:41.536
Nou en dan, dan wordt het een soort, dan kan die voortleven in een avatar. Dus je hebt een soort van kopie, uh, dat je er nog mee kan praten. Dus er is een, één van die.

234
00:37:41.556 --> 00:37:47.016
Nou, er zijn er echt veel, hè, dus, nou, ik ga er een paar noemen gewoon. Maar Project December, dat is eentje die heel veel wordt gebruikt.

235
00:37:48.176 --> 00:37:57.396
Uh, daar kun je, nou ja, uh, € 10 betaal je volgens mij voor een uur lang en dan kun je met een, uh, iemand die, ja, net is overleden praten.

236
00:37:57.456 --> 00:38:06.416
En dat is vooral, dat wordt veel gebruikt door mensen die getraumatiseerd zijn en die misschien geen afscheid hebben kunnen nemen van diegene. En, en, en daar heb je dan weer even de tijd mee, mee te praten.

237
00:38:06.586 --> 00:38:13.896
Maar er gaat heel weinig informatie in dat model, hoor. Dus echt een paar. Dit was een, uh, heel cheerful persoon en ze kon altijd heel goed met kinderen omgaan.

238
00:38:13.976 --> 00:38:23.936
En een beetje dat soort, je mag, je hoeft het niet eens zelf in te vullen. Je, je doet gewoon, je, je checkt een paar boxen aan die een omschrijving. Dus niet dat ie, die e-mail leegtrekt of zo? Of, uh. Nee.

239
00:38:23.976 --> 00:38:30.376
Project December is heel erg, uh, ja, elementair. Ik zit dan te denken de reden dat ik die vraag stel van met welk doel?

240
00:38:30.496 --> 00:38:39.856
Kijk, om het even de, want ik merk dat rondom dood en als het dan ook nog kinderen zijn, vind ik dat dan, ja, daar heb ik allerlei fysieke, dat ik denk jeetje, soort, ja, vind ik heel spannend of zo.

241
00:38:40.216 --> 00:38:50.616
Maar als ik het dan eventjes, eventjes uitzoom en denk oké, stel je bent een conducteur en in de trein heeft iemand je in elkaar geslagen. Daar is het recent over gegaan en daar heb je een trauma van.

242
00:38:50.856 --> 00:38:56.716
Nou, er zijn een aantal technieken die je daarvoor, ik ben geen specialist, maar ik weet dat daar een aantal technieken zijn om zo'n trauma te verwerken.

243
00:38:57.256 --> 00:39:04.616
En stel dat iemand zegt: joh, we pakken een Vision Pro of we richten een kamer in met allerlei beamers. We gaan daar, of we gaan gewoon letterlijk in die trein zitten met elkaar.

244
00:39:04.656 --> 00:39:10.256
We gaan het naspelen en we gaan jou iedere keer stop zeggen. Jij mag zelf pauze zeggen en dan gaan we met jou door dat trauma heen.

245
00:39:10.596 --> 00:39:18.716
Ja, daar, daar heb ik natuurlijk niks op tegen, want volgens mij ben je iemand dan het lijden aan het verlossen die hartstikke last heeft van een rotmoment wat hij of zij meegemaakt heeft.

246
00:39:18.776 --> 00:39:31.396
Dus als dat een doel van technologie is en dat is daar onder begeleiding van professionals een instrument in, hè, waardoor meer mensen dit kunnen voor minder geld en we veel meer mensen met trauma kunnen helpen, dan zal je mij niet zo heel erg horen.

247
00:39:31.596 --> 00:39:41.976
Ja, is het een commercieel bedrijf die mensen thuis in hun eentje met een overleden persoon tot leven laat brengen, dan word ik al wat zenuwachtiger. Dat ik denk: ja, zit daar een subscription model achter?

248
00:39:42.076 --> 00:39:50.056
Wat, wie, wie, wie, wie behoudt die geest van, van die, die synthetische kopie? Dat, daar zit mijn zenuwen, maar ik wil hem niet meteen afdoen als haha of zo.

249
00:39:50.096 --> 00:39:56.556
Nee, stom, want ik merk dat ik dan denk: ja, dan zal je straks zien dat ik hier dan hele kritiek op heb en zeg dit moet toch niet allemaal kunnen.

250
00:39:57.036 --> 00:40:07.936
En dat we straks in Nederland in een soort taboe honderdduizend gebruikers hebben van dit soort apps die niet durven te vertellen dat ze eigenlijk, uh, moeilijk vinden om, uh, iemand die ze verloren zijn los te laten en daardoor toch nog contact mee hebben.

251
00:40:08.156 --> 00:40:19.156
Ja, en mijn, mijn indruk na een paar van die dingen best wel goed bekeken te hebben is wel dat er een paar meedoen omdat ze denken van: nee, we kunnen hier wel echt een, een slaatje uit slaan op een bepaalde manier.

252
00:40:19.236 --> 00:40:28.116
Maar er zijn ook wel, nou ja, ik was toch wel aangenaam verrast, want ik ging hier dus inderdaad in van: nou, wat vreselijk dat je hier geld mee gaat proberen te verdienen.

253
00:40:28.716 --> 00:40:43.616
Maar toen stuitte ik op Hereafter AI en, uh, dat werkt eigenlijk op die manier dat je zelf een avatar kunt worden. Dus je bent in je leven als persoon, bijvoorbeeld als opa of als oma. Dan kun je daar mee bezig zijn.

254
00:40:43.736 --> 00:40:51.076
Oh, je doet, maakt hem zelf. Zodat je zelf inderdaad dus een soort van onsterfelijk wordt. En dan denk je eerst van daar moet je niet aan denken.

255
00:40:51.086 --> 00:40:57.716
Maar toen ik het, het, uh, filmpje ging kijken van hoe er wordt uitgelegd hoe het werkt, toen dacht ik: hmm, dat is eigenlijk zo gek nog niet.

256
00:40:58.116 --> 00:41:07.776
[muziek] What if there was one place where all of your memories could live forever? One place where you could ask any question about the life of someone you love and always hear their voice.

257
00:41:07.856 --> 00:41:19.726
Introducing Hereafter AI, the amazing new way to save and share memories about your life. First you record memories with the help of a friendly automated interviewer. Hi, I'm James.

258
00:41:19.956 --> 00:41:32.656
What's something unusual about your childhood? When I was growing up, my dad was a preacher and we moved around a great deal. Got it. I'll save that memory. You can also upload photos to go with your stories.

259
00:41:33.316 --> 00:41:46.736
Then, using the power of our AI platform, your loved ones can chat with the virtual you today or years in the future. Unlike conventional methods for storing memories, Hereafter is interactive. Hey grandpa!

260
00:41:47.176 --> 00:41:58.676
Hello, what part of my life would you like to hear about now? Tell me something that I don't know about you. Sure. Tering. Ja, dat is heel Amerikaans. Ja, maar ik vind het wel. Ja, maar ik zeg ook tering.

261
00:41:58.736 --> 00:42:06.096
Ja, het is tering. [lacht] Het is heel Amerikaans, maar ook tering. Het is wel bijzonder. Ik vind het ook wel echt vet. Ik vind het- Ja, vet toch?

262
00:42:06.296 --> 00:42:18.316
Ja, en ik vind het cooler eigenlijk dan hoe ik tot nu toe, want dat mijn, mijn visie op dit onderwerp, namelijk: gaan we in de toekomst kunnen praten met de doden, is voornamelijk gebaseerd op een aflevering van Black Mirror.

263
00:42:18.536 --> 00:42:29.136
Mhmm. Dat is zo'n aflevering waarin iemand doodgaat en waarbij dan het hele leven wordt geüpload naar een of andere cloud. En vervolgens kan de weduwe dus blijven praten met deze persoon.

264
00:42:29.536 --> 00:42:36.386
Cloud is op zich ironisch omdat het ook de hemel is. Ja. Waar iemand in belandt. Ja, nou ik, dat iemand die dat kan branden. [lacht] Ja.

265
00:42:36.856 --> 00:42:50.796
Misschien is dit een kans voor de kerk, maar, uhm, uhm, uh, daar, dat is mijn, uh, referentiekader en ik vind dat, dat impliceert dus dat je al je data gaat uploaden naar een of andere cloud, zodat er een betere digitale replica van je te maken valt.

266
00:42:50.956 --> 00:43:04.980
Nou, dat is dan één manier om dat te doen. Dit is eigenlijk veel sympathieker. Ja. En ook ethischer. Uh, namelijk dat je zelf kan bepalen welke verhalen je, je nabestaanden gaan horen van jou. Want dat is natuurlijkDit.

267
00:43:05.180 --> 00:43:16.180
Hier kan je zelf de de de accenten leggen. En uhm voor de kleinkinderen om nog met opa en oma te kunnen praten zeg maar. Ja, maar het heeft ook veel minder griezelig op een bepaalde manier.

268
00:43:16.200 --> 00:43:27.140
Omdat je niet ook niet de illusie hebt dat het een echt persoon is. Maar je weet ook dat jouw opa of oma dat heeft gemaakt voor jou. Zodat je nog kan vragen van hey opa, ik, ik. Ik ga nu een column voor het FD schrijven.

269
00:43:27.200 --> 00:43:36.120
Wat zou jij daarvan? Wat denk je? Dan verwacht je toch wel dat dat ding gaat hallucineren? Want dat dat, dat dat heeft opa niet ingesproken. Nee, maar met. Deze specifieke situatie.

270
00:43:36.160 --> 00:43:41.680
Nee, dat is dat is zo, dat heeft hij niet ingesproken. Maar het is wel hij gaat wel. Op basis van die stem gaat hij zelf wel dingen kunnen zeggen.

271
00:43:41.720 --> 00:43:50.560
Dus hij is niet alleen maar aan het herhalen wat hij ooit precies heeft gezegd. Dus hij kan misschien ook wel een soort van karakter induceren ja, of deduceren ja.

272
00:43:50.700 --> 00:44:01.020
En waarschijnlijk is hij geprogrammeerd om heel supportive en hulpvaardig te zijn. Dat waarschijnlijk ook ja. Maar ja, precies. Nou, het heeft misschien niet net zoveel waarde, maar op het kan wel.

273
00:44:01.060 --> 00:44:10.120
Het lijkt mij wel leuk om dat te kunnen doen. Maar wacht, je bent naar deze dienst geweest hereafter AI. Die heeft gewoon een website. Ja, het heeft een nou weet ik het. Ik heb een filmpje gezien.

274
00:44:10.160 --> 00:44:21.980
Ik ging gewoon naar YouTube en. Maar dit kun je gewoon gebruiken. Of is dit meer iets wat in de toekomst? Is dit een soort van kunstproject? Het al gebruiken? Je kan het al gebruiken volgens mij. Ja, Interactive Memory.

275
00:44:22.020 --> 00:44:33.060
Ja, ik zit te denken technisch. Technisch denk ik dat we dit we dat dit kan. Ja, maar ik ben met je eens Alexander. Is er al een interface omheen die voor de meeste mensen op een fijne manier te gebruiken is?

276
00:44:33.160 --> 00:44:43.260
Is dan misschien jouw vraag. Ja. Downloaden op die app store. Het kan echt. Het is gewoon echt. Snap ik. Ja. Maar ik zit te denken. Weet je wat? Ik heb weer een soort meteen zo'n.

277
00:44:43.300 --> 00:44:52.680
Ik praat altijd graag dat ik zeg het is een spectrum van x of y. En hierbij denk ik kijk, ik weet dat er mensen zijn die bijvoorbeeld jong overlijden en dat ook weten.

278
00:44:52.900 --> 00:45:02.980
Dus dat is iemand die is een nou ja, een jonge vader met kanker, die heeft kinderen en die gaat videobanden opnemen. Er zijn ook een aantal films gebaseerd op dit idee, maar er zijn ook mensen die dit doen.

279
00:45:03.360 --> 00:45:09.840
Ja, videoboodschap. En dan kan je zelfs zeggen joh, deze videoband. Ik zeg even videoband voor voor die tijd dan. Dat kan ook een mp4'tje zijn.

280
00:45:10.260 --> 00:45:17.680
Wil ik dat je die opent als je achttien bent, zodat ik er toch een beetje bij ben op je verjaardag. Volgens mij zijn er weinig mensen die hiervan zeggen dat dat moet je niet doen.

281
00:45:17.780 --> 00:45:25.080
Dat klinkt eigenlijk als een iets heel moois en daarom denk ik dat er best wel wat mensen zijn die dit doen. Dat kan. In de voorheen kon dat met brieven. Maak deze brief pas open.

282
00:45:25.120 --> 00:45:33.860
Dus in essentie heb je het alleen maar over een andere vorm van media. Het is wat rijker als er video bij zit. Dat is waardevol. So far, so good. En dat je er een gesprek mee kan aangaan.

283
00:45:34.200 --> 00:45:45.540
Nou, dat wat jij nu zo een beetje afdwingt zo. Nee, ik bedoel ik moet dat ik. Ja, ik ga toch die column schrijven of niet? Nee, maar ik bedoel Alexander zei net dat is voor mij de kern van de zaak.

284
00:45:45.940 --> 00:45:55.380
Maar Milou, het gaat wel hallucineren en hallucineren klinkt bijna wat negatief, maar je zou kunnen zeggen inspireren, nadenken, fantaseren, meer doen dan in de content zit, meer data erbij.

285
00:45:55.720 --> 00:46:04.720
En ik denk om eerlijk te zijn als een mening doe ermee wat je wil dat een. Het liefst dat ik zou hebben dat als iemand er zelf voor kiest om zo'n dienst te gebruiken.

286
00:46:04.800 --> 00:46:12.980
Laat ik zeggen als ik zo'n dienst zou gebruiken en denken vroeger stuurde ik een brief tien jaar geleden een videoband, drie jaar geleden een paar filmpjes op mijn iPhone.

287
00:46:13.020 --> 00:46:18.320
In 2024 kan ik naar een site toe en dan kan ik een taalmodel trainen. Dat weet je dan niet, maar dat weet ik dan.

288
00:46:19.180 --> 00:46:27.820
Dan zou ik zeggen ik gebruik een dienst die op het moment dat Milou vraagt dat bedoel ik niet richting jou Milou, maar ik vind het gewoon een heel sterk voorbeeld. Ik wil die column schrijven.

289
00:46:27.880 --> 00:46:39.620
Dat het taalmodel dan zegt Joh, daar weet ik niks over. Of in ieder geval daar specifiek weet ik niet zoveel over. Wat ik wel weet is dat als je iets schrijft, dat je dat doet vanuit je hart. Ja, ja, ja, ja, ja, ja, ja.

290
00:46:39.640 --> 00:46:45.080
Ja, want. Ja, ja, ja. Ja. Ik vond er een. Dan moet een limiet op. Want ik, ik. Want anders ga je richting.

291
00:46:45.100 --> 00:46:51.420
En dat is ook een beetje dat ik dan mening kan samenvatten over de eerdere initiatief, het tot leven brengen of in leven houden.

292
00:46:51.480 --> 00:46:58.560
Of ja, dat ik denk ik zou er minder moeite mee hebben als al deze tools dienen tot een soort beter afscheid.

293
00:46:59.110 --> 00:47:05.200
Maar als ze niet dienen tot een afscheid, dus een vasthouden van iemand voor altijd, dan denk ik gaan we naar een laag van menselijkheid toe.

294
00:47:05.220 --> 00:47:13.920
Dat we niet dat we de vergankelijkheid eigenlijk niet kunnen weerstaan, niet kunnen doorstaan. We kunnen het niet aan dat dingen nou eenmaal vergaan. En dan?

295
00:47:14.120 --> 00:47:24.500
Dan zou je in essentie net zo goed kunnen zeggen je gaat in een VR-omgeving wonen van jou op je zeventiende, want dan was je het meest gelukkig in de stad waar je woonde en daar blijf je voor altijd in hangen of zo.

296
00:47:24.880 --> 00:47:35.120
Ik zou toch altijd wel een beetje preken voor een beter afscheid. Dat zou ook de dienst moeten zijn. Misschien gebruik ik ook niet helemaal het goede voorbeeld. Dat mijn opa moet weten dat ik een column voor het FD heb.

297
00:47:35.220 --> 00:47:47.640
Los van of dat heel veel had uitgemaakt, maar ik ben wel mijn vader verloren een acht jaar geleden en ik zou het wel heel erg leuk hebben gevonden als er nu allemaal herinneringen die ik niet meer aan hem. Ik weet.

298
00:47:47.880 --> 00:47:58.660
Ja, ik heb best wel een slecht geheugen zelf en er zijn heel veel dingen die ik gewoon niet meer weet. En er zijn ook dingen die ik nooit meer ga kunnen vragen natuurlijk over hoe was je jeugd, wat is het?

299
00:47:59.260 --> 00:48:08.580
Hoe ging dat met opa vroeger? Wat weet jij nog van zijn verleden in de oorlog? En mijn oma komt uit Duitsland, was verpleegster en allemaal ingewikkeld.

300
00:48:08.620 --> 00:48:13.299
Maar in ieder geval al die herinneringen, dat kan ik nooit meer vragen. Dat heb ik op het moment zelf allemaal niet aan gedacht.

301
00:48:13.800 --> 00:48:27.320
Als hij dan de kans had gehad om dat allemaal hier in te spreken en ik dat allemaal nu dus kon terughalen, dat lijkt mij wel echt echt heel waardevol. Dat lijkt me echt vet als dat kan. Ja, maar de vraag natuurlijk.

302
00:48:28.400 --> 00:48:38.200
Zeg maar. Hij heeft. Hij had niet. Hij heeft niet het hele die hele riedel gedaan die Wytse zegt namelijk maak voor de komende vijftig jaar videoboodschappen. Het is ook wel een hele klus.

303
00:48:38.300 --> 00:48:49.060
Dat zou die sowieso niet hebben gedaan, anders ook mijn vader. Maar dat is heel dat dan. Dan neem je heel bewuste keuze ga ik al iets maken voor het geval dat ik er niet meer ben. Dat is dan een afweging.

304
00:48:49.100 --> 00:48:55.480
En binnen die afweging ga je dan bedenken wat wil ik eigenlijk vertellen aan mijn omgeving? Het is in ieder geval een bewuste keuze.

305
00:48:55.580 --> 00:49:08.480
Ja, maar wat technisch straks gaat kunnen en dat is denk ik waar het ongemak vandaan komt, is dat we niet alleen betere avatars kunnen gaan maken. Digitale avatars.

306
00:49:08.500 --> 00:49:15.840
Een soort van tweeling of zo van van het verleden op basis van heel veel data. En dan?

307
00:49:15.860 --> 00:49:30.412
Dan krijg je dus de beste kloon.Uh van een overledene door niet alleen de e-mail, niet alleen de WhatsApps, niet alleen de uh weet ik veel bestanden die op je computer staan of dingen die die uit fotoboeken kan extraheren.

308
00:49:30.692 --> 00:49:41.112
Uh dat soort dingen. Gewoon de de basis uh bestanden die die kan kan waarop die kan trainen door gewoon je leven te je digitale leven te in te lezen.

309
00:49:42.332 --> 00:49:53.152
Uhm en er gaat een soort van incentive zijn om zoveel mogelijk vast te leggen. Dus wat als we straks echt allemaal een microfoontje mee gaan nemen die de hele dag alles aan het opnemen zijn?

310
00:49:53.202 --> 00:50:06.852
Dus dat ook ruzies worden opgenomen. Dat ook gesprekken waarvan je helemaal niet wil dat anderen dat horen worden opgenomen. Dat al alles gebruikt kan worden om een model te trainen. Ja, technisch gaat het mogelijk zijn.

311
00:50:06.912 --> 00:50:17.972
Misschien gaat het sociaal acceptabel zijn dat we met z'n allen meer gesprekken nog gaan opnemen. Hoe hoe kijken we dan tegen die technologie? Dus dat is op de bandbreedte van hoeveel gegevens gaan we dat ding geven?

312
00:50:18.592 --> 00:50:33.392
En dan is nog een stap extra is dat er een taal model gaat proberen te interpreteren wat jouw vader zou hebben gezegd op een vraag die niet expliciet geleerd is door door door die data. Ja, ja, ik dus zeg maar.

313
00:50:33.432 --> 00:50:42.172
En op dit hele spectrum zijn er toch verschillende momenten waarop waarop ik denk Milou, misschien is het beter dat dit niet. Nee, dat is ja. Nee, dat snap ik ook inderdaad.

314
00:50:42.192 --> 00:50:54.012
Want het gevaar is natuurlijk ook, en dat zag je ook met die Black Mirror aflevering, dat iemand op een gegeven moment gewoon in een andere realiteit bijna gaat leven omdat hij zich zo vastklampt aan degene die er eigenlijk al niet meer is, maar die wel heel echt voelt.

315
00:50:54.132 --> 00:51:08.052
Zeker als je natuurlijk zelf ook dingen gaat ja bedenken tussen aanhalingstekens. Ja. Dus dan creëer je ja dan, dan blijf je dus ook. Dus dat is ook wel mijn mijn zorg met uh deze industrie die je nu ziet ontstaan van

316
00:51:09.432 --> 00:51:14.532
zijn ze ons daadwerkelijk wel aan het helpen? Ja. Maar had jij dit gewild?

317
00:51:14.542 --> 00:51:29.632
Dat als er een soort van uh 3D tekening of 3D video dat er dat je bijna kan of dat je bijna kan facetimen op basis van uh van van data die bij wijze van spreken van een s van zijn telefoon en laptop gehaald uh had kunnen worden.

318
00:51:30.052 --> 00:51:41.132
Had je dat gewild? Had je daar nu? Had je nu met die soort van taal chat GPT versie van je vader, maar dan met een met een 3D weergave in een FaceTime call met zijn stem? Had je dat echt gewild?

319
00:51:41.192 --> 00:51:51.792
Ik denk dat dat in het begin één, twee, drie jaar nadat hij dood was, dat dat dat ik dat niet had gewild. Dat had ik ook niet aangekund. Maar nu wel. Vreselijk kunnen. Nou, nu lijkt het me gewoon wel interessant. Ja.

320
00:51:52.752 --> 00:52:02.192
Ja, maar gewild. Kijk, het is als het als het kan, dan misschien. Weet je dan. Ja, ik. Ik merk dat ik het dat hereafter AI dat me dat wel leuk had geleken. Ja, ja, snap ik.

321
00:52:02.392 --> 00:52:06.912
En ik denk dat je dat je uh dat het dat er heel veel mensen zijn die dat die dat vinden.

322
00:52:07.012 --> 00:52:14.872
Uh en als ik het een keer ga testen of doe of ik krijg het een keer toegestuurd van iemand dat ik dan heel anders ga reageren dan dat ik dat misschien nu kan voorstellen.

323
00:52:14.932 --> 00:52:23.792
Dus ik wil ook het oordeel even uitstellen als het ware. Want ik denk ook wel eens dat valt me nu ook op. Ik heb best wel wat gesprekken om me heen met mensen over te zeggen over a ai vriendschappen, hè.

324
00:52:23.852 --> 00:52:32.812
Dus synthetische uh wezens waar jij dan een relatie mee hebt, zoals in de film Her. En dan krijg ik daar mensen zeggen dan die reageren dan op dat idee, zoals ik reageer op dit idee.

325
00:52:33.332 --> 00:52:42.032
Dus daarmee bedoel ik dat zij dan heel erg af. Ja, een beetje afweer en van jeetje wat erg, waar gaat het naartoe? En best wel veel mensen die ik spreek die echt denken jee, dit moeten we niet willen of zo.

326
00:52:42.072 --> 00:52:47.772
Wat hun goed recht is, hè? Prima, maar ik merk dus bij dit onderwerp dat dan dan daar een grens ligt voor mij blijkbaar.

327
00:52:48.312 --> 00:52:58.712
Maar tegelijkertijd kan ik me wel voorstellen dat uh stel dat je in je in je testament laat opnemen uh mijn kleinkind krijgt krijgt toegang tot al mijn, al mijn, mijn hele digitale leven.

328
00:52:58.832 --> 00:53:08.792
Wat ze dan een digital ghost noemen eigenlijk, hè. Daar zijn al termen voor. Dat is gewoon wat jij hebt achtergelaten aan broodkruimels op het internet. Uh digitaal. Uh en misschien zelfs ook uh de brieven in de kast.

329
00:53:09.392 --> 00:53:17.092
Uh, jij krijgt daar toegang toe. Dan kan je natuurlijk kijken naar wat is de interface tot hè, wat is de software tot die tot dat archief?

330
00:53:17.532 --> 00:53:26.892
Als dat bijvoorbeeld is een AI die praat, maar met de stem van een gewoon een beste vriend van jouw opa en zegt: joh, ik heb hem goed gekend, laten we samen eens door die spullen heen gaan.

331
00:53:26.912 --> 00:53:36.531
En als jij dan vraagt over een column en hij zij kan dan zeggen: ik heb hier een mail te pakken, dit is zo leuk. Volgens mij is deze mail precies hoe jij nu zit te strugglen met die column en dan.

332
00:53:36.892 --> 00:53:46.352
Maar we gaan dan wel toe naar die e-mail met de woorden van jouw opa en niet een een, een soort van herinterpretatie van of een soort van. Snap je wat ik bedoel?

333
00:53:46.792 --> 00:53:49.912
Voor mij zijn er nog wel een soort schuifjes waar we aan kunnen draaien. Ja.

334
00:53:49.952 --> 00:54:00.832
Dat je gewoon zegt: zullen we gewoon AI de kracht van AI gebruiken om op een fijnere, makkelijkere manier door een levens archief wat iemand zelf met consent heeft blootgesteld aan jou daar doorheen te gaan?

335
00:54:01.052 --> 00:54:08.172
Ja, voor mij heeft niemand daar iets op aan te merken. Op het moment dat je de stemmen gaat, iemand het een beetje tot leven gaat wekken weer, dat is een heel fijne lijn.

336
00:54:08.512 --> 00:54:20.012
Dan merk ik dat ik denk hé, wacht even, dit, dit voelt anders. Ja, ja, het is misschien ook wel een vorm van portretrecht, maar dan ja. Nee, ik zit echt te denken aan wat, wat wat iemand.

337
00:54:20.092 --> 00:54:28.372
Uh ja, dat klinkt zo zwaar meteen. Maar misschien wat, wat, wat is het effect op degene die het gebruikt? Ik heb de persoon die dood is. Ik ben iemand die gelooft dat er na de dood verder niet zoveel is.

338
00:54:28.412 --> 00:54:39.092
Dus dat die dat daar dan geen probleem is vanuit die persoon die er niet meer is. Laat ik het dan even zo zeggen. Dus dat hij weer hij zij weer tot leven gewekt wordt. Maar uhm. Wat dat met jou doet dat je toch?

339
00:54:39.672 --> 00:54:48.792
Ja, waar is Milou? Ja, die zit weer op haar kamer heel de avond te praten met iemand die ze niet los wil laten. Ja, ik zeg het even heel hard. En Cru. Nee, maar dat. Ik weet dat het heel erg heftig is, maar ja.

340
00:54:48.832 --> 00:55:01.432
Nee, maar nee. Dat is inderdaad het gevaar denk ik dus ook met dit soort dingen. Dat je inderdaad in een ja wordt weggetrokken uit het echte leven. Dat je, ja zit te verpieteren met iemand die er inderdaad niet meer is.

341
00:55:01.712 --> 00:55:16.692
Maar ja, ik denk als je nu nu kijkt naar de discussie gaande over hoe sociale media de mentale gezondheid van jongeren beïnvloedt en dat dat zo anders is dan uh nou pak hem beet twintig jaar geleden.

342
00:55:16.732 --> 00:55:20.752
Hoe mensen hoe hoe jongeren toen met hun mentale gezondheid bezig waren.

343
00:55:21.152 --> 00:55:35.380
Er zijnVeel mensen die zeggen daar is een directe link te leggen tussen smartphone en social media gebruik en hoe jongeren zich tegenwoordig voelen. Ja, de markt gaat gewoon behoefte hier aan hebben denk ik aan deze.

344
00:55:35.710 --> 00:55:45.900
Het is de meest vergaande technische oplossing, namelijk een zo realistisch mogelijke ja digitale kloon met wie je kan blijven praten tot in het oneindige.

345
00:55:46.680 --> 00:55:55.460
Ik denk gewoon dat er mensen zijn die daar behoefte aan gaan hebben, niet kunnen laten en, en omdat er marktpartijen gaan zijn die aan die behoefte gaan voldoen.

346
00:55:56.080 --> 00:56:08.259
Ik vind dat kun je nog alle mening over hebben of het goed voor je is. Ja, ik weet ook dat 8.00u TikTok per dag gebruiken niet bepaald goed voor je is. En toch zijn er heel veel mensen die dat doen. En gaat het wel?

347
00:56:08.760 --> 00:56:22.900
Het is technisch gaat dit gewoon gebeuren. Ja ja. Kanye West heeft het ook gedaan voor zijn echtgenote Kim Kardashian. Die heeft een hologram van de vader van Kim ja, laten maken met AI Robert Robert Kardashian.

348
00:56:23.060 --> 00:56:34.420
Oké, toen zij veertig werd voor haar verjaardag. Leuk. Ja, dat is een bewegende projectie van de dode vader. Ja, dat is ook als iemand alles al heeft. Ja, wat moet je dan nog geven? Een hologram. Wel zo.

349
00:56:34.540 --> 00:56:48.120
Ja, nog wel tot dat het hologram ook gedemocratiseerd is. Ja. Ja, dat was trouwens al in 2020, dus het kon. Ja. Nou ja, dus. Dus kun je nagaan waar we waarschijnlijk nu al staan. Ja. Ja. En ik denk nog dat onze.

350
00:56:48.130 --> 00:56:58.540
Ik bedoel, dit is vaker gebleken met het proberen te. Met het huis van de toekomst tot aan boeken geschreven over wat gaat er komen de komende vijftig jaar?

351
00:56:58.880 --> 00:57:04.520
Onze fantasie is te beperkt eigenlijk om te beseffen wat er allemaal kan zijn. Ik zit bijvoorbeeld te denken dat.

352
00:57:04.800 --> 00:57:15.600
Misschien kan je wel een blend maken van twee personen die je heel fijn vond en dat wordt dan één nieuw persoon. Ja. Ja. Ja. Ja. Ja. Misschien. Ja. En misschien kan je. Ouders samen. Ja, nee, maar ik noem maar wat.

353
00:57:15.700 --> 00:57:23.360
Of je favoriete buurman met het karakter van die en het uiterlijk van zus en zo. Ja, ja. Waarom inderdaad je beperken tot één dooie als je er twintig kan?

354
00:57:23.400 --> 00:57:31.720
En misschien kun je ook de dooie wel met elkaar laten communiceren. Nou ja. Misschien interessant. Laat je ze spelen in je favoriete serie en combineer het met je filmontmoeting.

355
00:57:31.740 --> 00:57:43.100
En ja, misschien is je relatie wel uit en blijf je die persoon tot leven wekken terwijl die zelf nog leeft. Ik noem maar wat. Is wel handig voor vervelende exen. Ik weet het niet. Waar je vanaf wil proberen. Oh mijn god.

356
00:57:43.140 --> 00:57:51.180
Nou, dat treft. Jouw hereafter ding is wel voelt. Voelt wel als een soort van middengebied tussen en technisch heel interessant namelijk.

357
00:57:51.210 --> 00:57:56.860
Hij doet de stem van opa na, maar hij vertelt alleen maar de verhalen na die opa ook vertelt. Ja, er zijn grenzen opa.

358
00:57:57.400 --> 00:58:04.680
Ja, en misschien dat dat de huidige stand van de techniek ik ook een soort van moreel gezien het meest comfortabel vind. Maar ja, ja, wat doe ik?

359
00:58:05.060 --> 00:58:15.580
En dan zegt hij Opa wil trouwens echt van vanilla coke en dat blijkt dan toch een sponsor te zijn. Eigenlijk op de achtergrond. Opor hou op Wietse. Ja, dat vind ik ook wel weer heel ver gaan.

360
00:58:17.460 --> 00:58:26.280
Nee, lees de voorwaarden goed door zou ik zeggen. Ja jongens, zijn jullie klaar voor de techno fix? Zeker. Zeker. Ik leid hem even in. Ja, zoveel mensen, zoveel problemen.

361
00:58:26.520 --> 00:58:35.580
Maar met AI en Pokie zijn die problemen straks allemaal verleden tijd. Alexander en Wietse bieden technologische oplossingen voor praktische problemen en het is tijd voor de techno fix.

362
00:58:35.620 --> 00:58:46.300
Met deze keer het probleem van Willem Treur. Hij is jazzgitarist, podcast grappenmaker. Je ziet hem eigenlijk op steeds meer plekken verschijnen en hij heeft een probleem. Jongens.

363
00:58:46.460 --> 00:58:56.780
Pokie probleemoplossers de handige hulplijn voor al uw techno fixes met Milou. Hey Milou. Wat is uw probleem? Ik zit helemaal met mijn handen in het haar, want ik probeer al jarenlang mijn rijbewijs te halen.

364
00:58:56.860 --> 00:59:05.940
Maar elke keer dan zegt mijn rijinstructeur van oh, je kan zo goed autorijden. Ik wou dat ik, toen ik op het punt zat waar jij nu zit, zo'n rust en overzicht had als wat jij nu dan hebt.

365
00:59:06.600 --> 00:59:14.780
Maar en laten we snel gaan afrijden. En wat heerlijk, wat ben je goed bezig! En op jouw leeftijd is het ook helemaal niet. Je hoeft je helemaal niet te schamen dat je al bijna veertig bent.

366
00:59:15.280 --> 00:59:26.260
En dan ga ik heerlijk mijn theorie halen. En dat heb ik toen jaren geleden een keer gehaald met één fout, maar die is toen direct verlopen. Maar dat geeft niet, want je kunt het allemaal opnieuw blijven doen.

367
00:59:26.520 --> 00:59:27.540
Maar nu heb ik dus al.

368
00:59:27.600 --> 00:59:38.219
Al veertien keer achter elkaar heb ik mijn theorie niet gehaald, dus de eerste keer had ik hem wel gehaald en daarna heb ik hem veertien keer op rij niet gehaald met steeds iedere keer één of twee fouten te veel.

369
00:59:39.000 --> 00:59:49.520
Hoe kan ik dit nou oplossen? Want het lijkt wel alsof ik steeds maar dommer word en of ik steeds maar minder goed snap wat ik allemaal leer. Graag je je advies. Ja, hij wil echt. Hij heeft echt onze hulp nodig.

370
00:59:49.550 --> 00:59:57.940
Dat heeft hij me nog op het hart gedrukt. Hij heeft echt advies nodig en ik hoop heel erg dat we een techno fix voor hem hebben. Ik heb deze zo hard, deze techno fix, maar ik weet niet of het nog kan.

371
00:59:58.000 --> 01:00:10.300
Oké, ik kon dit dus niet halen. Ik heb vijf afspraken achter elkaar gemaakt voor een examen. Bam! En toen heb je hem wel gehaald. D'r uit, d'r in maken, d'r uit, d'r in maken, d'r uit. No way. Natuurlijk.

372
01:00:10.340 --> 01:00:20.960
Vierde keer had ik hem. Let's go! Maar dit is ja, dat is natuurlijk. Dat is de technologie bij het CBR. Die is wereldberoemd om het feit dat het ongelooflijk geavanceerd is. En dit is.

373
01:00:21.000 --> 01:00:28.680
Dit is een loophole die je kan gebruiken. Ik weet het niet. Dit is honderd. Dit is 100% niet gelogen. Dit is hoe ik het heb gedaan. Omdat ik het gewoon dacht. Grappig. Ik.

374
01:00:28.760 --> 01:00:36.320
Je moet er geld tegenaan gooien, want zo'n examen moet je aanvragen. En ik? Ik zag op een gegeven moment op die site gewoon die tijdslot, dacht ik kan ik eigenlijk gewoon meerdere afspraken maken?

375
01:00:36.340 --> 01:00:42.960
Toen heb ik gewoon afspraken achter elkaar gemaakt en de vierde keer had ik hem. Nog ergens naartoe daarvoor tegenwoordig of kan je het gewoon vanuit je huiskamer doen?

376
01:00:43.000 --> 01:00:49.980
Tegenwoordig is moeilijk, want het is voor mij toch wel weer even geleden. Ik heb hem vrij laat gehaald, maar toch wel tien jaar geleden of zo. En dat was nog op locatie. Ja dus.

377
01:00:50.020 --> 01:01:00.820
Ik hoop toch ook gewoon op locatie, anders kun je. Kan je het valsspelen? Ja, je moet naar zo'n naar zo'n hal van het CBR. Ik had zo'n test, dat was. Dat was toen al geen dvd'tje meer. Maar je hebt gewoon software.

378
01:01:01.000 --> 01:01:09.840
Die maken het dan na. En toen had ik op een gegeven moment door als ik gewoon lang genoeg in die software blijf loopen, dan krijg ik op een gegeven moment een procentuele kans dat ik een keer het haal.

379
01:01:10.180 --> 01:01:15.260
En toen dacht ik kan ik dit niet in de realiteit nabootsen? Maar ik, ik Eerlijk, ik weet dus niet zo goed of dit nog kan.

380
01:01:15.300 --> 01:01:23.120
Misschien moet je naar verschillende steden tegelijk op één dag, maar ik zou gewoon zeggen ja, brute force, gewoon dat dat theorie-examen. Schiet met hagel.

381
01:01:23.180 --> 01:01:35.540
Ik heb het vermoeden dat het vrij makkelijk te fixen is, namelijk je BSN-nummer één keer toestaan per periode. Wietse. Ik vrees dat dit al gefixt is. Maar dan mooi jouw hack met verschillende steden in Nederland.

382
01:01:35.650 --> 01:01:44.800
Stop het daarmee. Of iedere dag een nee, maar dan een hele week, zeven dagen achter elkaar gewoon inplannen en dan hopen dat het één keer lukt die week gewoon heel. Ik denk dat dit kan.

383
01:01:44.840 --> 01:01:56.482
Ja, misschien kan dit inderdaad gewoon wel.Hmm, nou dit is echt een waanzinnige tip voor mensen voor wie dit relevant is. Ja, maar ik vind. We kunnen niet nog een rol voor AI bedenken. Ja, hoe kun je?

384
01:01:56.592 --> 01:02:08.072
Hoe kun je het oefenen? Hoe kun je? Wie maakt die afspraken allemaal voor je? Ja, dat is een AI agent. Ja. Zapier. Ik denk wel dat een een Inderdaad Milou, je hebt gelijk. Ik denk dat je.

385
01:02:08.932 --> 01:02:10.732
Misschien moet je eens screenshots maken van.

386
01:02:10.772 --> 01:02:20.292
Je moet dan wel even achter die software aan of YouTube video's te pakken krijgen en dat dan met chat GPT vier V die kan kijken en dan zeggen van joh hier dit, dit is het, dit is het Nederlands theorie-examen auto.

387
01:02:20.392 --> 01:02:27.432
Plaatjes erbij. Hoe zou jij dit aanpakken? Ik denk dat je er dan niet uit komt. Ja. Zou dit kunnen? Zou die. Maak jij hem eens voor me.

388
01:02:27.461 --> 01:02:38.252
Het is heel ingewikkeld hoor, want dan zien ze een plaatje van een huif van een huifkar en dan zegt hij mag je deze huifkar inhalen? Of een wat is een militaire colonne met een groene en een blauwe vlag?

389
01:02:38.812 --> 01:02:53.312
Mag je hier naar rechts? Ik Ik ben heel benieuwd of chat GPT V dit kan GPT vier V. Want als dit kan dan dan ik denk dat dan kan dat ding stiekem alles want dit is. Dit heeft niemand nog gerankt.

390
01:02:53.412 --> 01:03:03.772
Of GPT vier V wel weet wat huifkarren zijn op basis van een plaatje van het CBR. Het is echt een heel belangrijke benchmark die we hier hebben uitgevonden zeker? Ik ga hem uitbreiden.

391
01:03:03.832 --> 01:03:14.192
Ja, want dit wordt dit wordt de techno fix. Oké, wat je doet? Je gaat op YouTube of ergens een cd-rommetje vandaan toveren met die software erop waarmee je kan oefenen. Mocht hij dat niet al in huis hebben. Denk ik.

392
01:03:14.232 --> 01:03:23.842
Ja, die CDI ga jij screenshot als een gek. Ja, zodat je een mapje krijgt met nou ja, je hebt de tijd, want je bent. Alle mogelijke verkeerssituaties. Honderd plaatjes minimaal. Huifkarren.

393
01:03:23.852 --> 01:03:33.012
Die ga je, ja, die ga je voeren aan chat GPT. En dan zeg je. Dan zeg ik tegen chat GPT oké, dit is de interface, dit is hoe het eruit ziet. Nu snap je een beetje wat we gaan doen, toch?

394
01:03:33.052 --> 01:03:44.782
Ik mag één afspraak per dag, per dag maken. Ik ga er zeven maken. Ja. Je hebt deze honderd plaatjes. Geef me de gameplan. Hoe gaan wij aan het eind van de week dat papiertje hebben, toch? Ja. En dan komt ie nog.

395
01:03:44.782 --> 01:03:53.112
Gaat ie zelf Alexander Pechtold bellen en die bedreigen of zo. Zoiets lijkt me heel vet om dit. Brute force of ja. Echt brute force. Ja. Ja.

396
01:03:53.152 --> 01:04:02.212
Maandag is de dag dat je er gewoon intuïtief doorheen klikt zonder na te denken. Dinsdag is een lang nadenk dag. Dan ga je echt nadenken over antwoorden. Ja, precies. Op woensdag combineer je beide strategieën.

397
01:04:02.272 --> 01:04:11.592
Ik noem maar wat. Oh mijn god. Ik hoor wel dat het geen quick fix is. Nee. Dat hopen mensen toch? Nog niet. Totdat Wietse dit gemaakt heeft voor de mensen. En dan? Heeft hij al veertien gedaan.

398
01:04:11.832 --> 01:04:22.532
En wat als het nu faalangst is? Want het klinkt wel kijk, als je het veertien keer zakt terwijl je het de eerste keer gewoon gehaald hebt. Ja, ik zat ook wel aan negen of zo hoor, dus ik durf wel toe te geven ik kan.

399
01:04:22.592 --> 01:04:30.752
Ik ben hier gewoon bijzonder slecht in. Als het faalangst is. Dan heb je toch cognitieve gedragstherapie voor En ik wil dat heel graag in een volgende aflevering bespreken.

400
01:04:30.792 --> 01:04:42.832
Of AI als een navolging op kan je een digitale kopie van jezelf maken als je er zelf niet meer bent? Kun je in het huidige leven praten om in het reine te komen met met je, met je emoties en met je gedrag.

401
01:04:43.612 --> 01:04:52.672
Want daar is ook nog wel een appeltje te schillen. Leuk! Ja, we moeten ook even kijken wat er al is, want volgens mij is dit al een markt die gewoon best wel al aan het groeien is die een beetje onder de radar.

402
01:04:52.792 --> 01:05:05.892
Laten we ons maar induiken. Ja. Ja. Is interessant. Nou, ik heb genoeg problemen ook om te bespreken. Het is wel leuk dus ik, ik. Ik leg ze graag voor aan AI. Nou zijn we er doorheen geloof ik. Ja.

403
01:05:06.292 --> 01:05:14.912
Je klinkt zelf verbaasd Milou. Nou, het is toch elke keer weer een verbazing inderdaad als we ons er doorheen geworsteld blijken te hebben. Maar onder het uur. Het is. Ik vind dat jullie.

404
01:05:15.752 --> 01:05:27.152
Jullie hebben je gedragen, redelijk gedragen. Waarop? Waarom? Complimenten. Redelijk. Complimenten. Redelijk gedragen? Ja. Dank je wel. Jammer van dat China. Dat we niet wat meer over China hebben geleerd.

405
01:05:27.172 --> 01:05:36.612
Nou, misschien een volgende keer. Dat kunnen we ook nog eens in een hele aflevering een keer aan wijden. Ja, zeker. Dat we daar iemand bij vragen. Zeker. Ja goed. Bedanken Sam voor de edit. Sam Hengeveld.

406
01:05:36.772 --> 01:05:47.032
En als je nu een lezing wil over AI Wietse heeft het een beetje druk. Die heeft al lezingen. Die gaat er nu en gaat nu ter plekke een lezing geven. Naar buiten straks en dan gaat meteen het podium op.

407
01:05:47.312 --> 01:06:02.882
Alexander daarentegen, die staat te popelen. Zeker. Lege agenda. Ja. Nou mail op lezing at pokkie punt show. En dat was het. Tot volgende aflevering. Dag. Dag. Doei. [muziek]
