WEBVTT

1
00:00:00.080 --> 00:00:10.400
[wekkersignaal] Oh! [zucht] Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.440 --> 00:00:18.620
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.680 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.740 --> 00:00:39.300
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:54.559
Koop de Philips S9000 Prestige bij jouw favoriete winkel. [muziek] Voor je gaat luisteren heel even dit. In de nieuwe podcast Veldheren neem ik, Jos de Groot, jou iedere donderdag mee voorbij de frontlijn in Oekraïne.

6
00:00:54.980 --> 00:01:05.300
Dat doe ik samen met generaal buiten dienst Peter van Uhm en Mart de Kuijf. Zij hebben één duidelijk doel: aan jou uitleggen hoe oorlog werkt. Volg Veldheren in jouw favoriete podcastapp.

7
00:01:06.120 --> 00:01:34.540
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin Alexander Klöpping en Wietse Hagen je bijpraten over de wondere wereld van AI.

8
00:01:34.640 --> 00:01:44.580
Ik ben Milou Brandt. Even googelen zeggen we nu als we het even niet weten. Want ja, Google is toch onze toegangspoort tot informatie en dat gaat waarschijnlijk nooit meer veranderen. Toch?

9
00:01:45.110 --> 00:01:53.360
Nou, dat zou zomaar eens wel kunnen veranderen en daar gaan we het over hebben. En verder: hoe zit het nou eigenlijk met die taalmodellen die verlengd worden door andere taalmodellen?

10
00:01:53.400 --> 00:02:05.820
En ja, wat voor vreemde business is dat eigenlijk? En goed nieuws in deze aflevering voor alle huisvaders: eindelijk komt er een robot die wast, kookt, strijkt en schoonmaakt. De emancipatie is nabij. Jawel.

11
00:02:05.960 --> 00:02:23.760
Spit uw oren. We gaan beginnen. [muziek] Hoe vind je het eigenlijk tot nu toe? Want dat AI-onderwerp was best wel nieuw voor jou. Nu ben je er ineens veel meer over aan het lezen. Ja. Als, als, als voorbereidend.

12
00:02:24.440 --> 00:02:36.400
Uhm, ja, hoe, hoe groot is dit onderwerp wat jou betreft? Hoe... Ben je er zelf al meer in geïnteresseerd? Ja, nou, dat is een, een leuke vraag. Nou ja, sinds ik dit doe met jullie.

13
00:02:36.680 --> 00:02:47.500
Ten eerste, uh, ja, het, het dwingt mij op, op een bepaalde manier om me in te lezen in het onderwerp. Maar als je dan begint met lezen en je ziet wat er allemaal gemaakt wordt, wat er allemaal gebeurt.

14
00:02:47.540 --> 00:02:56.760
Ik luister naar jouw reacties daarop. Ik luister wat Alexander zegt. Ik zie het enthousiasme in jullie ogen en het is bijna alsof er een soort van iets, iets aan is gegaan.

15
00:02:57.280 --> 00:03:12.680
Weet je wel, alsof er, alsof ik nu, ja, dat klinkt heel, heel melodramatisch en meeslepend, maar alsof je onderdeel wordt, heel langzaam, van iets wat zo groot is dat we al eigenlijk allemaal nog geen enkel idee hebben hoe dat precies vorm gaat krijgen in ons leven.

16
00:03:12.740 --> 00:03:21.500
En dat, dat klinkt ook nog heel vaag, maar dat komt omdat het nog heel vaag is ook natuurlijk. Wij weten niet hoe dat allemaal, wat het voor invloed gaat hebben op ons leven.

17
00:03:21.600 --> 00:03:26.060
Mensen kunnen dat zich gewoon niet voorstellen en we zien slechts een, een topje van de ijsberg.

18
00:03:26.700 --> 00:03:36.340
Maar vaak zijn juist, dat deed de Titanic dus ook, onder, onder dat oppervlaktewater is die ijsberg enorm en er komt steeds meer van boven. En het voelt gewoon alsof er nu dus iets,

19
00:03:37.660 --> 00:03:39.880
uhm, alsof er een soort van keerpunt is.

20
00:03:40.600 --> 00:03:55.440
En heb je, want ik, ik heb wel eens het idee dat ik, en misschien is dat ook deels zo, dat ik een soort waan leef van, uh, en daarmee bedoel ik een waan, uh, ja, gewoon zoals je een, zoals je een, een waan kent dat jij in je eentje iets heel erg gelooft wat andere mensen niet geloven.

21
00:03:55.500 --> 00:04:05.150
Of, en dat je, en dat kan in, in de negatieve zin uitpakken in een, in een volledige psychose waarin iemand echt in een eigen realiteit gaat leven en, en niemand meer kan vinden, zeg maar. Ja.

22
00:04:05.160 --> 00:04:18.220
Wat heel verdrietig is, uhm, maar in een subtielere vorm kan het zijn dat je, ja, iets, iets ziet en iets hebt gelezen en omdat jij er zoveel mee bezig bent geweest, zie je dat, uh, en dan wil je andere mensen daar een soort van in meekrijgen.

23
00:04:18.250 --> 00:04:28.100
Ja. Dus ik ben ook, nu ik jou zo hoor: heb je nu het gevoel dat je [lachen] onderdeel bent geworden van deze gedeelde waan of zo? Van dat er iets, dat er iets groots gaande is en dat het echt belangrijk is.

24
00:04:28.240 --> 00:04:39.590
Nou, op een bepaalde manier ja. Je, ja, het, het leeft. Ik merk dat het bij mij iets is gaan leven op een bepaalde manier. En, uh, ik heb, ik ben nu net columnist voor het FD geworden Ja.

25
00:04:39.610 --> 00:04:50.000
en de eerste column die ik nu heb geschreven, daarin zit dit eigenlijk ook een beetje verwerkt onder andere. Uh, dat gaat, het heeft te maken met de cloud. Uh, heel veel,

26
00:04:50.920 --> 00:04:57.860
ja, grote big tech-bedrijven die maken miljoenen, miljardenwinsten eigenlijk. Die draaien heel veel omzet op de cloud. Ja. Heel veel.

27
00:04:58.660 --> 00:05:10.740
En nou ja, Meta is als een van de weinige bedrijven juist, ging de aandelenkoers naar beneden en dat was vlak nadat ik had gelezen dat Lama 3 geïntegreerd gaat worden in WhatsApp en Instagram en weet ik veel wat.

28
00:05:11.400 --> 00:05:21.180
En toen dacht ik: ja, maar hebben we, kijk, los van of, of het terecht is dat die koers naar beneden gaat. Ja. Maar ik dacht: hebben mensen door wat voor waanzinnige, uh, omslag dit gaat zijn?

29
00:05:21.480 --> 00:05:31.920
Althans, dat denk ik en ik voel dat omdat ik er natuurlijk veel meer mee bezig ben dan de gemiddelde mensen om mij heen al, denk ik. Maar ik denk dat dat een, een heel groot ding gaat worden.

30
00:05:32.340 --> 00:05:40.760
Maar denk je, kan je, want dat is een mooie, want nu zeg je eigenlijk van: ja, maar, uh, dit had bijna andersom moeten zijn qua beurskoers of zo, toch? Ja. Ik weet niet, dat zeg je niet, maar dat hoor ik.

31
00:05:40.840 --> 00:05:48.340
Ja, kijk, want op zich moet je natuurlijk cloudcomputing niet uitvlakken en dat gaat echt wel ook de toekomst heel erg, uh, uh, veranderen voor bedrijven.

32
00:05:48.360 --> 00:05:56.159
Mensen hebben het al over: wanneer gaan we over naar de cloud met het bedrijf en zo. Het gaat heel erg die infrastructuur vormen, zeggen ze, voor hoe bedrijven werken.

33
00:05:56.860 --> 00:06:10.304
Uh, maar als Meta in onze dagelijkse sociale interacties die AI verweeft en eigenlijk ervoor zorgt dat we nooit meer uit WhatsApp hoeven straks, omdat alles, alle vragen die we hebben zitten straks, die worden beantwoord inUh ja, in die ene app.

34
00:06:10.804 --> 00:06:18.334
Ja, waarom zou je dan nog naar een andere app gaan? Wat hebben we dan nog verder nodig als, als het daar zit? Maar ik vind het wel bijzonder, want in, in dat opzicht ben je.

35
00:06:18.344 --> 00:06:29.924
Je bent niet echt gepakt door die crypto hype destijds, want er zijn best wel veel mensen die nu, uh, soort van op afstand blijven van het hele AI verhaal omdat ze denken ja, ik ben erin gestonken met de blockchain de vorige keer.

36
00:06:30.244 --> 00:06:35.744
Toen riep ook iedereen en m'n buurman dat het allemaal ging gebeuren en dat was het, ging het vooral gebeuren dat je er geld aan kon verdienen.

37
00:06:35.804 --> 00:06:44.624
Maar dat zegt niet zoveel over de belofte van daadwerkelijk een cryptowereld waarin we allemaal maar gingen betalen met bitcoin bij de supermarkt of zo. Dat is allemaal niet gebeurd. Ja, uh dus.

38
00:06:44.644 --> 00:06:53.124
Maar hier word je wel door gepakt op een of andere manier. Of je bent. Ja, ik snap je vergelijking enigszins, maar ik denk wel dat het echt ook twee hele verschillende dingen zijn.

39
00:06:53.604 --> 00:06:59.864
Ik ken de, de crypto vooral vanuit mijn achtergrond als dus ja, maker van de podcast Jong Beleggen.

40
00:07:00.944 --> 00:07:13.003
Als we, als je niet kan begrijpen wat iets, wat de waarde van iets is of waar die tot stand, door tot stand komt, waarom zou ik er dan in beleggen als het alleen maar afhankelijk is van hoeveel mensen dat, dat ding willen hebben?

41
00:07:13.063 --> 00:07:20.624
Ja, en toen dacht ik ja. Jij op die manier gewoon doorheen dan. Of in ieder geval je had zoiets van dit is niet interessant voor mij, want ik zie gewoon die onderliggende fundamentele waarde niet.

42
00:07:20.704 --> 00:07:29.624
Ja, ik heb, ik heb daar geen controle over en dat is super risicovol dan meteen, weet je wel. Je kan wel misschien voor de grap drie bitcoin kopen. Nou, dat kan. Dat was destijds ook volgens mij heel duur.

43
00:07:29.964 --> 00:07:38.644
Volgens mij nu ook. Nee, maar in het begin niet. Maar op een gegeven moment, toen heel veel mensen. Heel klein, heel klein stukje van een Bitcoin. Maar ja, dat is dan echt speculeren daarmee.

44
00:07:38.704 --> 00:07:40.564
Dat kun je voor de grap doen of voor lol, maar ik denk,

45
00:07:41.904 --> 00:07:54.564
ik geloof best dat er misschien dat we in de, in de toekomst dat Bitcoin een grotere of helemaal niet weggevaagd wordt en dat het misschien een nieuwe, de toekomst van het nieuwe geld, uh, kan vormgeven op een bepaalde manier.

46
00:07:54.864 --> 00:08:03.544
Maar dat, dat moeten we ook nog maar zien. Maar ik vind dat soort dingen wel spannend. Maar het voelt ook wel een beetje anarchistisch op een bepaalde manier. Ja, dat zit daar ook wel heel erg aan in Bitcoin.

47
00:08:03.564 --> 00:08:15.624
En AI is gewoon iets wat we allemaal dagelijks gaan gebruiken. Gewoon iets. Ja, gewoon iets. Ja, gewoon iets wat in WhatsApp komt. Dus dat is al wel heel anders. Precies, het wordt, het wordt, het wordt genormaliseerd.

48
00:08:15.884 --> 00:08:25.764
Dus ik ben wel inderdaad, als ik, ik ben daar wel op een andere manier naar gaan kijken nu ik met jullie deze, deze podcast maak in ieder geval. En ik, ik maak dus een andere podcast ook.

49
00:08:26.804 --> 00:08:35.064
Maar ik voel wel bij deze is het echt. Ik vind dit, die is dan ook leuk om te maken, maar ik vind dit op een bepaalde manier extra leuk, omdat er gaat gewoon iets borrelen.

50
00:08:35.653 --> 00:08:42.824
Ja, want ik moet meteen denken nu je dit zegt van, ook over je voorbeeld met Meta en dat die dan aankondigt dit komt in WhatsApp en dat die beurskoers dan naar beneden gaat.

51
00:08:42.964 --> 00:08:44.744
Even als, als voorbeeld vind ik een mooi voorbeeld. Want

52
00:08:46.373 --> 00:08:55.204
toen die, toen de iPhone werd geïntroduceerd was dat een heel duur toestel zonder keyboard waar je de batterij niet van kon vervangen, met een glazen scherm, met software, zonder software, want er waren niet eens apps.

53
00:08:55.444 --> 00:09:03.684
Er zaten een paar standaard apps op en daar moest je het mee doen. Uh, er werd echt weggelachen door mensen. Voor mij was die € 799 of € 699, was een superduur ding ook.

54
00:09:03.724 --> 00:09:13.804
Telefoons waren toen echt gewoon € 150 in ieder geval. Dus het was hele rare, het voelde ontzettend gek. Ja, maar ja, de, de, de, de believers aan het begin zeg maar, die waren er een hoop.

55
00:09:14.484 --> 00:09:24.294
Die hadden zoiets van nee, maar dit gaat zoveel dingen aantasten. Hoe providers werken, hoe telefoonwinkels werken, wat banken zijn. Het is zo'n soort van systeemtechnologie die alles kan aantasten.

56
00:09:24.304 --> 00:09:33.184
Ook al was dat ding dus nog maar net op de markt en viel die ook echt makkelijk stuk. Dat was ook echt zo. Ja, want toen moesten de hoesjes om. Het hele idee van telefoonhoesjes kwam toen en zo. Schermbeschermers.

57
00:09:33.204 --> 00:09:44.364
Schermbeschermers op schermbeschermers. Maar waarom noem ik dit als voorbeeld? Omdat, het, het gekke is dat het, dat het heel moeilijk te voorzien was wat een smartphone allemaal ging vervangen.

58
00:09:44.484 --> 00:09:58.524
Ja, en nu, uh, het kan dus zomaar zo zijn dat als je de chatbot in WhatsApp goed genoeg is, dat mensen veel minder vaak gaan googelen. Waardoor dus echt in één keer het hele businessmodel van Google onder druk staat.

59
00:09:58.584 --> 00:10:07.824
Ja, want dat is het enige waar ze geld mee verdienen ongeveer. Ja. Ja. Dus dan is dit zeg maar, uh, ineens een enorm existentieel gevaar voor een bedrijf als Google.

60
00:10:08.244 --> 00:10:20.984
Dat Meta, het social network, ineens gaat concurreren met hun op kennis, uh, vergaren via internet. Ja, en ik denk dat dit, uh, wel moeilijk te overzien is voor veel mensen die niet dieper in die materie zitten.

61
00:10:21.044 --> 00:10:31.704
Ja, want je denkt gewoon de wereld is nu zoals hij is en dat gaat, ja, we zullen altijd Google Search nodig hebben, want waar zijn we zonder? Dat is onze toegangspoort tot. Maar merk jij al dat je het minder gebruikt?

62
00:10:31.724 --> 00:10:37.854
Want ik merk dat nog niet zo heel erg bij mezelf. Nee, ik google ook nog steeds naar hartenlust. Ja. Ja. Naar hartenlust. Ja. Ja.

63
00:10:37.864 --> 00:10:49.684
Nee, maar dat, dat is wel bijzonder dat je op een gegeven moment, de vraag is ga je op een gegeven moment echt minder tijd op een dag besteden in of op google.com of in je app, whatever, uh, en meer tijd besteden om te kletsen met iets?

64
00:10:52.064 --> 00:10:59.564
Ja, dat vraag ik me ook wel af. Het is, ik vind Google ook wel fijn werken namelijk. Maar dit is trouwens, hier gaan we het straks uitgebreid over hebben. Dat is wel goed dat je het alvast zegt.

65
00:10:59.594 --> 00:11:06.364
Dan kan ik er vast naar verwijzen dat we hier straks veel verder op ingaan. Want ja, Google die helpt ons inderdaad met onze zoektocht in het dagelijks leven.

66
00:11:06.404 --> 00:11:13.944
Maar kan AI daar ook nog iets in de brij brokkelen en ons helpen, uh, met de dingen vinden waar we zo naarst naar op zoek zijn?

67
00:11:14.164 --> 00:11:21.564
Trouwens, misschien moeten we nog even zeggen dat, dat er, uh, voor de luisteraar misschien iemand ontbreekt. Een stem. Ja, het is niet dat Alexander gewoon niks durfde te zeggen deze aflevering.

68
00:11:21.604 --> 00:11:31.504
Alexander is opeens heel verlegen geworden. Nee, hij, hij is er niet. We zijn even samen, Milou en ik. Ja, en daarom heb jij ook even de gelegenheid om zulke diepte vragen aan mij te stellen.

69
00:11:31.744 --> 00:11:38.984
Ik voel me opeens ook helemaal gezien. Mooi. Dan iets anders. Uh, ik begreep eigenlijk niet zo goed, uh, wat, waar dit over ging.

70
00:11:39.704 --> 00:11:50.804
Uh, ik heb me nu sinds ik deze podcast maak, wa-wat ingeschreven voor wat, uh, van die AI nieuwsbrieven die je via, ja, je mail krijgt. En hier stond iets in, dat begreep ik gewoon niet helemaal.

71
00:11:50.844 --> 00:12:02.344
Dat, dat gaat dus over, kijk, we hebben dus allemaal verschillende soorten taalmodellen. Er komen er ook steeds meer bij. Maar je hebt nu ook modellen die andermans taalmodel, ja, zij noemen het dan verlengen.

72
00:12:02.444 --> 00:12:11.024
Dus bijvoorbeeld, en dan moet je even met me mee proberen te luisteren. Uh, Gradient, dat is dan denk ik een bedrijf. Uh, zij hebben een model gereleased.

73
00:12:11.204 --> 00:12:29.018
Lama drie acht B Gradient Instruct1048k en die zou Lama drie acht B's context lengte verlengen van acht K tot één miljoen plus. Dank je wel. Ja [lacht] respect voor deze. Ja, maar gratis ook.

74
00:12:29.068 --> 00:12:36.248
Zonder stotteren. Ja, deze Klingon kan ik even proberen te vertalen, zeg maar wat voor alle vage termen die erin langskomen. Ja.

75
00:12:36.408 --> 00:12:45.248
Dat Llama drie model waar we het eerder over hebben gehad is wat Facebook slash Meta als laatst, uh, de wereld ingeslingerd heeft. Het tot nu toe krachtigste open source model. Ja.

76
00:12:45.908 --> 00:12:50.728
Open source met een kleine asterix, want als je een heel groot bedrijf bent, moet je toch even bij Meta langs om toestemming te vragen.

77
00:12:50.868 --> 00:12:57.908
Maar goed, dat gezegd te hebben, het is wel het meest open model wat we hebben wat zo krachtig is. Ehm, maar je kunt zo'n model, staat niet in steen.

78
00:12:57.948 --> 00:13:07.918
Dus op het moment dat dat model uitgebracht is, kan je daar nog mee door. Ja. Dat is als het ware een, een, uh, een keffir of een, uh, hoe noem je dat, zo'n doorgeefbrood? Ja, zo zuurdesem. Yes. Ja.

79
00:13:07.928 --> 00:13:16.108
Dus je kan dat van een ander krijgen en daarop door evalueren als het ware. Vet. Want het staat niet vast. Nee, omdat het open source is. Ja, nou, dat ook. Ja, dat helpt.

80
00:13:16.208 --> 00:13:27.568
Dat het open source is, helpt jou om te zorgen-- dan mag je er sowieso wat mee, hè, want het is en de licentie en hoeveel, uh, hulp je eromheen krijgt aan, uh, handleiding en, en handvatten om er iets mee te kunnen. Ja.

81
00:13:28.288 --> 00:13:36.088
En, uh, dus het mag ook tot een bepaalde hoogte. Je kan er iets mee en je mag er iets mee. Laat ik het dan zo zeggen. Dus je kan doortrainen eigenlijk. Maar, uh, dat is een punt.

82
00:13:36.108 --> 00:13:45.508
Dus wat vaak gebeurt is dat, uh, uh, ja, Meta was op een gegeven moment wat hun betreft klaar met trainen voor het, het, het was slim genoeg of het voldeed aan een bepaalde eis, dus het kan de wereld in.

83
00:13:45.848 --> 00:13:54.358
En jij kan er dan als partij als je genoeg hardware hebt, dus energie, dus geld, voor kiezen om daar op door te gaan trainen. Je kunt dan doortrainen in een specifieke, uh,

84
00:13:55.388 --> 00:14:02.898
vakgebied, dus dan maak je er een expert van op een bepaald punt. Hè, dat is dan jij zo'n. Ja, het is alsof je eigenlijk, uh, hele, uh, breed, uh,

85
00:14:03.888 --> 00:14:07.868
leerlingen van de middelbare school die dan daarna een, uh, vervolgopleiding gaan doen om te specialiseren.

86
00:14:07.908 --> 00:14:16.488
Zo zou je ook zo'n model kunnen zien van: we gaan voor onze toepassing intern specialiseren of we gaan hem zo specialiseren en dan doorverkopen weer aan anderen. Ja.

87
00:14:16.688 --> 00:14:26.288
Wat nu, wat jij vraagt of eigenlijk wat in jouw hele lange zin zit of titel van wat hier gebeurt- Ja. Is dat de context length. En dat is eigenlijk: hoe groot is de vraag die je kan stellen in één keer?

88
00:14:26.778 --> 00:14:35.588
Uh, dus dat houdt in, dan kan je een heel boek meesturen in je vraag en zeggen: joh, ik heb dit boek geschreven, heel boek erin, uh, copy paste. Kan je me wat tips geven over een volgend boek?

89
00:14:35.668 --> 00:14:46.168
Of hoe kan ik dit boek in een tweede druk verbeteren? Om een heel boek mee te kunnen plakken, uh, heb je een hele grote context, context length nodig. Dus de context die je mag meegeven en de lengte daarvan.

90
00:14:46.228 --> 00:14:55.448
En toen Llama drie uitkwam, uit mijn hoofd, want jij zei het net volgens mij. Hoeveel, hoeveel kon er? 4096? Uh, dat was acht K denk ik. Ja, want ja, acht K.

91
00:14:56.108 --> 00:15:03.188
Ja, want dan kan je dus acht K mee plakken en dat zijn dan niet karakters maar tokens. Dus dat zijn een soort stukjes van woordjes. Nou, dat is dus niet zo heel erg veel.

92
00:15:03.228 --> 00:15:06.468
Hm, een essay die je schrijft voor je studie kan dan meegeplakt worden.

93
00:15:07.268 --> 00:15:16.548
Uhm, maar de gesloten modellen, bijvoorbeeld Gemini, die is daar een beetje, dat was een beetje een, het was, ja, het gaat om maanden geleden, dus het is helemaal niet zo lang geleden in de geschiedenis.

94
00:15:16.658 --> 00:15:26.868
Maar dat, toen Google Gemini lanceerde, hun gesloten model, toen zeiden ze: wij zijn beter dan, we zijn even goed als ChatGPT. En daarmee kan je, we hebben ook nog eens een context length van één miljoen. Mhmm.

95
00:15:27.128 --> 00:15:34.548
Dus je kan boeken mee plakken. Ja. Misschien wel je hele oeuvre kan erin. [lacht] Ja. Uh, maar toen Llama drie uitkwam kon, was het dus maar acht K. Ja.

96
00:15:34.608 --> 00:15:45.648
En dan is het dus de kunst om toch dat model zo te gaan modificeren en uitbreiden dat je er meer context in mee kan geven. En da- waarom is dat zinvol? Nou, dat kan dus, uh, inderdaad je oeuvre zijn.

97
00:15:45.988 --> 00:15:56.368
Beetje overdreven, maar veel boeken. Uh, maar het kan ook de hele codebase zijn. Dus alles wat je tot nu toe geprogrammeerd hebt voor je bedrijf plak je mee. Uh, of alle raadsvergaderingen ooit, uh, plak je mee. Ja.

98
00:15:56.448 --> 00:16:06.148
Is wel heel veel, maar een hoop belangrijke raadsvergaderingen kunnen meegeplakt worden. Dus dat con-- die context length dat zij dat bij Gradient gedaan hebben is heel erg waardevol. Ja, oké.

99
00:16:06.288 --> 00:16:16.008
Ik, ik snap dus wel dat het kan, dat, dat je dat dan kan gaan doen, maar dat je, is dat dan het bedrijfsmodel ook van zo'n Gradient? Of er zijn andere, uh, bedrijven. Ja, jouw vraag is eigenlijk: waarom doen ze dit dan?

100
00:16:16.048 --> 00:16:27.288
Ja, waarom doen ze dit? Ja, ik denk om een beetje, uh, aandacht te krijgen. Uh, dat ze kunnen laten zien van: wij zijn capabel genoeg hier. We hebben mensen zitten, die kunnen iets pakken van Meta en verbeteren, hè. Ja.

101
00:16:27.308 --> 00:16:36.848
Dus dan, als jij dan oplet en je, uh, je werkt bij een grote corporate, dan denk je misschien: oh, wij willen eigenlijk wel ook Llama drie op onze manier aanpassen. En die gasten van Gradient klinken alsof ze dat kunnen.

102
00:16:36.887 --> 00:16:43.928
Dus ik denk dat het een stukje marketing is. Mhmm. En een soort, uh, minder cynisch zou zijn, uh, een soort gift aan de community. Oh ja.

103
00:16:43.968 --> 00:16:53.988
Dit is de belofte van, van het hele idee van Llama drie die wereld ingooien is: laat de open source community er maar gratis- Ja. Extra werk in stoppen.

104
00:16:54.068 --> 00:17:03.148
Maar dat is niet erg dat het gratis is, want het is voor ons allemaal. Het is in één keer onderdeel, want het is een park. Ja. Geen, uh, Efteling. Ja. Zijn er ook nog kanttekeningen bij te plaatsen?

105
00:17:04.268 --> 00:17:11.828
Uhm, nou ja, het is de vraag of de kwaliteit dan nog zo goed is. Dat kan je testen. Dus dat, dan heb je die needle in the haystack. Dus dan gooi je er eigenlijk een heel oeuvre in.

106
00:17:11.968 --> 00:17:18.568
En in een van die boeken verstop je dat zinnetje: ik hou van, uh, uh, champagne bij maanlicht. En dan vraag je aan het einde: waar hou ik van bij maanlicht?

107
00:17:18.588 --> 00:17:25.148
En als ie dan champagne zegt, dan heb je, hé, hij heeft het echt meegenomen. Ja. Dat hebben ze, dat hebben ze ook getest trouwens. En het ging dus redelijk goed. Ja.

108
00:17:25.408 --> 00:17:33.128
Van de twintig naaldjes worden er negentien gevonden in zo'n verhaal. Ja, ja, ja. Oké. Ja. Ja. Uhm, maar het nadeel is dat je veel brutere machines nodig hebt om te draaien.

109
00:17:33.148 --> 00:17:37.448
Dus de kanttekening, als je zou vragen: waarom heeft Meta dat dan niet meteen gedaan?

110
00:17:37.508 --> 00:17:47.708
Is omdat de democratisering van het model is als het ware, wordt aangetast omdat de hardware die je mee moet brengen om dit thuis of in jouw bedrijf te kunnen draaien weer schaalt. Ja. Dus je kan kiezen.

111
00:17:47.768 --> 00:17:56.238
Je moet eigenlijk gaan kiezen van: wil ik een Llama met een grote context of een kleine context model? En als je weinig hardware hebt zelf, dan kun je eigenlijk alleen voor die kleine gaan.

112
00:17:56.288 --> 00:18:07.058
Ja, dan moet je een kleintje doen. Ja, ja, ja, ja, oké. Ja, het is in die zin een soort van, een beetje een na-aper slash we, ja, we, kijk, we bouwen je op door. Ze kunnen ook zelf zo'n model bouwen, toch? Mmm.

113
00:18:07.108 --> 00:18:16.172
Dat doen ze dan weer niet. Nou, dat kunnen ze dus niet. Dat kunnen ze dus niet. Nee. Nee, maar dat is niet omdat ze het niet kunnen uit, dat heeft minder met kunde te maken, maar meer met kapitaal.Oké.

114
00:18:16.512 --> 00:18:25.032
Het is gewoon echt ontzettend kapitaalintensief. Dus doen ze dit maar. Het heeft iets treurigs ergens. Nou ja, je zegt ja als bedrijf.

115
00:18:25.062 --> 00:18:31.092
Wat zij kunnen brengen is een modificatie op een bestaand ding wat Meta wel kan betalen. Oké, nou nu snap ik het. Dank je wel.

116
00:18:31.512 --> 00:18:41.712
En er is nog één ander nieuwtje wat ik tegenkwam en dat is weer echt AI dan in de zin van hoe we het ons allemaal twintig jaar geleden voorstellen. Robots door de straten en in ons leven.

117
00:18:42.252 --> 00:18:55.892
Er is een, een robot gereleased van het bedrijf Stardust, een Chinees bedrijf en dat is de Astri Bot S1. Goede naam, hè? Ja, nou ja, refereert het ergens naar? Weet ik niet. Nee, geen idee. Het heeft iets met sterren.

118
00:18:55.992 --> 00:19:08.372
Weet je Astri Astro? Nou ja, Astri Bot. En wat kan dat ding nou? Dit is een, een hulp in het huishouden, als ik het goed begrijp. Het is een robot die kleren vouwt, spullen sorteert, kan helpen met koken.

119
00:19:08.412 --> 00:19:19.932
Hij stofzuigt en moet uitkomen in 2024, dus die is er nog niet. Maar het komt er wel aan. En toen dacht ik: ja, dat is wel echt een bevrijding natuurlijk van degene die thuis het huishouden doet.

120
00:19:20.262 --> 00:19:28.872
[lacht] Ja, dat heb je mooi gezegd ja. In die zin een bevrijding voor degene die dat doet. Nou ja, het is wel wat opvallend is aan dat het natuurlijk op basis van video's.

121
00:19:28.902 --> 00:19:32.032
Die heb jij dan ook gezien denk ik, dat je een beetje ziet wat zo'n robot allemaal kan.

122
00:19:32.152 --> 00:19:40.252
En het is een beetje die die, dat fijne vingergevoel en die die, die fingerspitzengefühl om te kunnen koken en te kunnen schoonmaken en dat soort dingen die in die robot zitten.

123
00:19:40.292 --> 00:19:53.392
Wat wel indrukwekkend is en wat minder goed kon de laatste jaren. Dus er zit gewoon een, een stroomversnelling in. En ja, door alle sciencefiction zou je denken dat het een soort van mensachtig ding moet zijn.

124
00:19:53.452 --> 00:20:02.072
Maar het kan natuurlijk een deel van een mens op een stok zijn, hoe heftig dat ook klinkt. Het is een beetje wat het is. Het rijdt rond. Volgens mij loopt het niet rond, maar rijdt het rond. Ja.

125
00:20:02.512 --> 00:20:09.952
En de bovenkant heeft gewoon twee armen die ontzettend flexibel zijn om een eitje te kunnen bakken. Ja, een precisie. En iets te kunnen snijden.

126
00:20:09.972 --> 00:20:16.152
Het is een beetje een soort operatierobot die we al heel lang hebben, maar onbetaalbaar zijn en niet in die schaal gemaakt worden.

127
00:20:16.232 --> 00:20:26.012
Ja, maar kwestie van tijd toch tot het ook toegankelijker wordt, zoals met alles uiteindelijk. Het gaat, het gaat daar wel echt harder omdat het is een beetje dat brute force.

128
00:20:26.072 --> 00:20:35.992
Dus dat je eigenlijk in plaats van dat je een robot regels aanleert en iedere handeling gaat oefenen met zo'n robot dat je gewoon zegt: joh, dit is je opdracht en vind maar uit hoe je eruit komt. Ja.

129
00:20:36.192 --> 00:20:48.152
En wat ze dan bijvoorbeeld bij een DeepMind doen binnen Google is dat ze eigenlijk een hele wereld simuleren waarbinnen een virtuele versie van die robot leeft. En dan ook nog eens duizend tegelijk. Want waarom niet?

130
00:20:48.232 --> 00:20:56.232
Want het is een. Het leeft in een computer, dus je kunt dat heel makkelijk klonen, zeg maar. Je hoeft niet duizend robots te bouwen, je kan er gewoon duizend aanzetten tegelijk in een virtuele wereld. Ja.

131
00:20:56.672 --> 00:21:02.172
Dat je ze daar dan laat koken. Net zolang tot ze op een gegeven moment een eitje kunnen koken in het virtuele.

132
00:21:02.512 --> 00:21:13.532
En dat je dan vanuit die virtuele lessen die daar geleerd zijn met datzelfde brein dat dus tot nu toe alleen geleefd heeft in een soort Matrix achtige wereld. Dat je die dan in een echte robot laadt en dan gaat kijken.

133
00:21:14.232 --> 00:21:23.942
Kan hij nou ook echt een ei bakken? En dit is wel een stap die ervoor zorgt dat die robotica zo'n sprong maakt nu is dat je dus met een soort ja, wat ze dan digital twins noemen.

134
00:21:24.112 --> 00:21:33.552
Dat je een, een, een digitale twin hebt van een keuken. Even om het concreet te maken. En dat je daar duizend robots, duizend computer jaar.

135
00:21:33.772 --> 00:21:38.212
Dus dat kan 10.00u zijn, want dat kan je allemaal op hoge snelheid afspelen in zo'n computer. Is heel bizar eigenlijk.

136
00:21:38.772 --> 00:21:48.672
Duizend robots, duizend jaar laten proberen om een eitje te bakken zonder dat je het ooit hebt uitgelegd, behalve dat je hebt gezegd wat het einddoel is. Ja. En dan, dan, dan strompelen ze zich daar naartoe.

137
00:21:48.732 --> 00:21:53.632
Als je de eerste generaties van zo'n robot die dat probeert ziet, dan gaat het ei tegen het plafond, zeg maar.

138
00:21:53.672 --> 00:22:02.592
Maar na een x jaar in computertijd, dus een paar uur op het datacenter, dan staat daar in, in een computergame achtige wereld een robot eitjes te bakken.

139
00:22:02.972 --> 00:22:11.512
En als het dan goed genoeg eruitziet, stop je het in de echte robot en dan gaat hij nog een ei staan bakken ook. Ja. Ja, dat is bizar. Ja, oké. En dat is dan de, de technische kant.

140
00:22:11.572 --> 00:22:20.012
Ik dacht ook heel erg de gewoon de praktische kant. Wat een, wat een bevrijding dit daadwerkelijk gaat zijn voor mensen die dat dus thuis moeten doen. Ik weet, weet jij hoe de, de vaatwasser ooit is uitgevonden? Nee.

141
00:22:20.492 --> 00:22:31.792
Dat is eigenlijk, nou ja, dat is heel lang geleden al ontdekt en bedacht eind negentiende eeuw vanuit het praktische probleem. Een vrouw die kreeg, zij heette Josephine Cotran of Cochrane.

142
00:22:31.852 --> 00:22:38.712
Ik weet niet zeker hoe je het uitspreekt. Die was zo klaar met alles. De hele tijd al die borden van al die mensen afwassen. En dan gingen ook wel eens dingen kapot.

143
00:22:38.812 --> 00:22:47.631
Die dacht hier moet, hier moet iets voor gemaakt worden. En toen is, heeft zij eind negentiende eeuw al een vaatwasser bedacht die haar zou ontslaan van die taak.

144
00:22:47.652 --> 00:22:55.192
En sindsdien, ja, wie moet er 's avonds nog ook de afwas doen? Dat hoeft allemaal niet, je kan gewoon meteen naar de bank. Netflix aan, hop en gaan zitten.

145
00:22:55.372 --> 00:23:07.252
Nou weet ik toevallig dat dit, dat die vaatwasser ook heel vaak aangehaald wordt in debatten rondom is dan, is die destijds dan de vrouw ook daadwerkelijk nu vrijgemaakt dankzij die vaatwasser?

146
00:23:07.292 --> 00:23:16.772
En dat dan toch achteraf bleek dat er een, dat, dat er nieuwe taken bijgekomen zijn. Dus het sluit een beetje aan op het cynisme rondom automatisering in de algemene zin.

147
00:23:16.812 --> 00:23:24.212
Er werd toen maar gewoon weer meer verwacht van de vrouw in huis. Want ja, je hebt geen tijd meer hoef je te besteden aan het vaatwassen. Nee, natuurlijk.

148
00:23:24.252 --> 00:23:29.952
Ja, de mens houdt zichzelf en de vrouw zeker houdt zichzelf ook wel echt bezig. Er is altijd wel weer iets anders wat je dan kan gaan doen.

149
00:23:29.972 --> 00:23:48.052
Maar uiteindelijk je kan niet ontkennen dat ook door de komst van de wasmachine dat je niet meer stel, nou in, zeker in die tijd als je, als je acht kinderen had, dat je al die kleren stuk voor stuk moest wassen met een, een wasbordje en een rekje en drogen en soppen en nou, dat kan niet anders dan dat het ontzettend veel tijd scheelt.

150
00:23:48.312 --> 00:23:56.962
Maar ja, het is natuurlijk ook wel zo dat we kleren na één keer dragen al in de was gooien en dat hoeft misschien ook niet. Nou ja, en toen werd de vrouw natuurlijk vrijgemaakt om ook daadwerkelijk te gaan werken.

151
00:23:57.012 --> 00:24:06.512
Werken. Want ik bedoel er werd altijd al heel erg hard gewerkt, maar dan ga je, dan heb je een eigen carrière wat allerlei voordelen heeft en dat wil ik echt niet een soort van makkelijk over doen.

152
00:24:06.572 --> 00:24:16.112
Maar het is niet, mensen zijn er niet minder druk op geworden, laat ik het zo zeggen. Heb ik het idee. Nee, maar we kunnen tenminste werken. Dat scheelt. Ja, er is nu een keuze daar. Dat is wel echt wat waard.

153
00:24:16.132 --> 00:24:29.012
Dat is toch vooruitgang? Ja, dat dacht ik ook. Nou ja, en dat was dus mijn nieuws. Jij had ook nieuws. Nou, althans nieuws. Dat is dus een, een weer een, een leuke link die jij in de Notion gedumpt hebt.Eh, ja.

154
00:24:29.052 --> 00:24:38.052
Wil je hem zelf inleiden? Want ik heb er natuurlijk op geklikt en ik, ik moet zeggen dit zag er, uh, heel begrijpelijk uit. Nou, de vraag die ik va-- ik zal hem zelf inleiden. De vraag die ik veel heb gehad.

155
00:24:38.312 --> 00:24:44.212
Mensen die bezig gingen toen met, uh, Stable Diffusion of DALL-E. Dus dat is, uh, plaatjes genereren. Eigenlijk, uh, generatieve AI.

156
00:24:44.852 --> 00:24:52.782
Uh, van: oké tof, ik heb nu iets gemaa-- ik heb een prompt verzonnen en daardoor heb ik nu een, nou bijvoorbeeld, je schrijft een kinderboek en daar wil je illustraties bij. M-hm.

157
00:24:53.252 --> 00:24:59.192
Uh, en dan heb je op een gegeven moment een poppetje gevonden wat perfect is. Een egeltje die in een autootje rijdt. Ik noem maar wat zus. Uh, of zus.

158
00:24:59.392 --> 00:25:07.141
Er is helemaal niks mis met het egeltje in het autootje, maar dat is even het voorbeeld wat ik heb. Uuuh. Geïnspireerd door Beatrix met haar Sparky en Boa's, of heb je dat niet?

159
00:25:07.172 --> 00:25:10.332
Misschien zit dat ergens in mijn ach-, achter-, uh, in mijn onderbewustzijn. Ja.

160
00:25:10.672 --> 00:25:18.012
Maar op een volgende pagina wil je natuurlijk datzelfde egeltje misschien in een badkuipje zetten, of in een vliegtuig of aan een, uh, uh, aan een hangglider hangen.

161
00:25:18.492 --> 00:25:22.972
En dan moet dat die, dan moet er een bepaalde continuïteit in zitten, want je hebt eigenlijk een karaktertje ontwikkeld.

162
00:25:23.072 --> 00:25:32.931
Uh, een herkenbaar karaktertje het liefst, hè, want dat is natuurlijk waar, uh, Disney al zijn copyright op heeft. Of alle Pokémon, uh, uh, allemaal unieke Pokémon zijn die je dan weer kan verkopen. Ja.

163
00:25:33.172 --> 00:25:53.232
La-, heel lang verhaal om gewoon te zeggen: wat nog niet zo goed kon en nu, uh, langzamerhand, uh, uitgevonden wordt eigenlijk binnen de literatuur, dus het komt uiteindelijk ook in de tooltjes te zitten, is dat jij, als jij eenmaal een karaktertje hebt gevonden waar je blij mee bent, bijvoorbeeld een stripfiguur die je meerdere rollen wil laten spelen door jouw stripverhaal heen, dan kan dat nu.

164
00:25:53.632 --> 00:25:58.752
Want die kan je dan eigenlijk identificeren, vastzetten en hergebruiken door jouw hele verhaal heen.

165
00:25:59.252 --> 00:26:07.252
En op die manier kan je dus eerst met AI een karakter ontwikkelen en daarna met AI dat karakter op allemaal verschillende plekken neerzetten in alle verschillende settings.

166
00:26:07.892 --> 00:26:12.102
En dan is het ook nog eens zo dat ze in datzelfde artikel meteen naar video zijn gegaan. Waarom niet?

167
00:26:12.632 --> 00:26:20.952
Uhm, waardoor je dus ook datzelfde karakter als je een bepaalde-- ze hebben dan een voorbeeld van een beer bijvoorbeeld. Hebben ze die cartoonachtige Pixar beer gevonden als het ware. Die hebben ze gegenereerd.

168
00:26:21.592 --> 00:26:28.152
En die kan je dan zeggen: ga eens lachen of ga eens dansen of doe eens iets en dan, dan blijft dat beertje herkenbaar als diezelfde beer. Dat is eigenlijk het hele punt.

169
00:26:28.272 --> 00:26:35.811
Dus kunnen gewone mensen hier tekenfilms mee maken. Bijvoorbeeld. Zeker. Ja. En een voorbeeld is ook, uh, strips. Ja. Of een paar comics.

170
00:26:36.272 --> 00:26:45.652
Ja, want daar zit je natuurlijk ook dat je eigenlijk per, uh, window, per raam wil je eigenlijk natuurlijk datzelfde, wil je weer Kuifje terug laten komen. Ja. En niet een soort van net niet Kuifje.

171
00:26:45.672 --> 00:26:55.892
Want dat is nu, uh, ook als ik er zelf mee, uh, experimenteer, dan vind ik op een gegeven moment best wel iets leuks of zo. Een poppetje als het dan, vaak als het meer getekend is of zo, of cartoonachtig.

172
00:26:56.362 --> 00:27:00.192
En dan denk ik: ja, nu deze en dan op tien verschillende plekken. Nee, dat, uh.

173
00:27:00.572 --> 00:27:09.571
Daar zijn trouwens voor de mensen die dat nu al wel willen, want dit zit dus nog niet echt in de tools, uh, één van- Heb je al gezegd hoe het heet, trouwens? Uh, nee. Nee. Story Diffusion heet het.

174
00:27:09.652 --> 00:27:15.872
Ja, is wel een goede naam, ons zus. Ja. Ja. Want dat, het, het, dus hun idee is dat, uh, dat je dus een verhaallijntje kan neerzetten in plaats van maar één plaatje.

175
00:27:16.412 --> 00:27:26.952
Maar wat je nu al kan doen is een soort van, in andere tools die dit dus niet ingebouwd hebben, is dat je eigenlijk een omschrijving maakt van bijvoorbeeld: oké, dit is een, uh, variatie op een bekend figuurtje.

176
00:27:27.172 --> 00:27:31.732
Er zijn allerlei, uh, vraagtekens bij hoe legaal dit is, maar dat kan. Want copyright.

177
00:27:31.972 --> 00:27:38.192
Ja, en als je dan die naam hebt gevonden van bijvoorbeeld een variatie op dit figuurtje die wel een beetje stabiel is binnen dat, binnen dat systeem.

178
00:27:38.232 --> 00:27:48.332
Dus die snapt van: oké, je-- en dan kan je die, als je eenmaal de zin hebt gevonden hoe je dat figuurtje kan beschrijven, dan kan je natuurlijk wel zeggen: en nu in een auto en nu in een vliegtuig en nu op het strand.

179
00:27:48.752 --> 00:28:00.812
Omdat je zo'n goed detail hebt gegeven van dat specifieke poppetje. Ja, ja, ja, ja. En, en dit Story Diffusion. Uh, als je naar de website gaat storydiffusion.github.io, dan kun je het even zien.

180
00:28:00.852 --> 00:28:09.792
Er staan heel veel voorbeelden op. Het ziet er ook echt wel leuk uit, maar dat is dus, daar zit ByteDance ook voor een deel achter. Ja, ja zeker. Dit is TikTok- TikTok. TikTok gefinancierd onderzoek.

181
00:28:09.912 --> 00:28:18.472
Dit komt denk ik uit hun AI-lab, uh, want zo'n GitHub URL is vaak dat het dus een research paper is met daarbij ook meteen een pagina.

182
00:28:18.512 --> 00:28:27.712
Vaak, uh, in de onderzoekswereld is het een iets saaiere pdf, maar als jij natuurlijk met video gaat werken is dat niet een fijne vorm om iets te tonen, dus dan krijg je vaak dit soort pagina's.

183
00:28:28.092 --> 00:28:31.492
En dit is dan weer gebaseerd op een soort template wat heel veel onderzoekers nu gebruiken.

184
00:28:31.512 --> 00:28:39.032
Dus die site zien er ook-- verbaas je niet over als je over een half jaar een link krijgt dat je denkt: dit, zijn dit dezelfde mensen? Nee, die gebruiken gewoon hetzelfde paginaatje.

185
00:28:39.692 --> 00:28:43.972
Soort van academisch saai, maar inhoudelijk interessant paginaatjes. Ja, ja. Ja.

186
00:28:44.312 --> 00:28:55.012
Maar als we nu-- ik heb-- vorige week hebben we kort even China aangestipt, maar, uh, waar we nu achter komen is hier zit ook een beetje, nou ja, China achter, toch? ByteDance. Ja, zeker. Is toch Chinees?

187
00:28:55.612 --> 00:29:05.492
Uh, de vorige robot die kwam van Stardust, het Chinese bedrijf. Dus eigenlijk zit ze op veel meer plekken misschien dan we aanvankelijk, of an-, ja, wat ik, uh.

188
00:29:05.632 --> 00:29:12.502
Ik denk dat het gewoon een blinde vlek voor heel veel mensen is. Of misschien alleen maar voor mij, uh, dat ik, dat er veel mensen wel heel erg mee bezig zijn. Maar. Ja.

189
00:29:12.592 --> 00:29:20.572
Uhm, ja, er word-, er zijn gewoon, uh, veel meer laboratoria en ook hele commerciële onderzoeksgroepen bezig met deze zelfde materie. Ja.

190
00:29:20.632 --> 00:29:28.802
En als jij natuurlijk open source zoals Llama 3, dan kan de hele wereld daarmee aan de gang. Hier worden ook veel vraagtekens bij gesteld van: ja, dat, wat is de andere kant van open source?

191
00:29:29.372 --> 00:29:35.732
Op het moment dat jij dan de gewichten, de weights zoals we dat noemen, dat is eigenlijk het, de, het goud in zo'n model is de gewichten.

192
00:29:35.832 --> 00:29:44.612
Uh, want met die gewichten zit eigenlijk de intelligentie als het ware opgeslagen in zo mijn model. Die houdt, uh, OpenAI geheim. Ja. Want ja, dat, daar moet je voor betalen ook.

193
00:29:44.892 --> 00:29:51.832
Iedere keer als jij wat vraagt moet je een paar cent betalen of je moet een abonnement nemen als particulier, uhm, maar bij Llama is dat niet zo.

194
00:29:52.492 --> 00:30:00.232
Maar in essentie kan je natuurlijk zo'n a-, zo'n ding omtrainen, waar we het eerder over hadden, tot een expert op het gebied van dingen waar je het helemaal niet wil dat het een expert is.

195
00:30:00.272 --> 00:30:03.752
Manipulatie, leugens vertellen, noem maar op. Ja.

196
00:30:03.812 --> 00:30:16.272
Uh, dus, de, ik ben, uh, persoonlijk vind ik open source een heel erg mooi idee, maar ik heb ook mijn vraagtekens bij of, of dat ook zomaar toegepast moet worden op AI-achtige, uh, ja, dingen.

197
00:30:16.452 --> 00:30:25.472
Wat nu wel op volle schaal natuurlijk gebeurt. En dat, daar zit dus ook misschien met het, uh, dat die, die, die taalmodellen die andere modellen weer verlengen. Dus je kan dat ook,

198
00:30:26.372 --> 00:30:35.972
als je slechte intenties hebt kan dat ook fout gaan dus. Nou, je kan iets omtrainen naar iets anders. Ja. Dus de vraag is ook: komt er ooit een Llama 4? Of mag het niet meer tegen die tijd?

199
00:30:36.092 --> 00:30:48.536
Of, uh, ja, er zijn heel veel discussies-Binnen de bedrijven. Want Facebook is niet ik. Ik zal leren Meta te zeggen, maar het is niet de enige die Mistral brengt ook hun modellen uit. Er is wel discussie in de community.

200
00:30:49.136 --> 00:30:55.616
Zullen we dan op een gegeven moment het een tijdje niet uitbrengen als het echt heel krachtig wordt? Of. Maar ja, er zit ook weer.

201
00:30:55.676 --> 00:31:04.276
Er is ook weer iets voor te zeggen van ja, misschien is hetgene wat jou gaat beschermen ook wel weer een AI. Snap je wat ik bedoel? Dus dan wil je het juist weer wel hebben. Dus het is echt een ingewikkeld ding.

202
00:31:04.716 --> 00:31:12.636
Ja, ik heb. Ik heb ook nog geen antwoord daarop. Nee, overheden volgens mij ook nog niet. Nee, nee, je hebt nog even. Maar we willen het wel weten binnenkort.

203
00:31:12.956 --> 00:31:24.276
Straks gaan we het hebben over hoe we hoe AI kan helpen met het vinden van de dingen die wij zoeken in het leven. Wat voorheen dus Google Search heel goed kon, maar kan AI dat misschien nog beter?

204
00:31:24.316 --> 00:31:36.136
Daar gaan we het straks dus over hebben. Eerst even onze sponsor. Pokie wordt gesponsord namelijk door Squarespace. En ben jij nou een ondernemer die zich wil onderscheiden en online succes wil boeken? Let dan even op.

205
00:31:36.936 --> 00:31:44.416
Een beetje ondernemer heeft natuurlijk een website, maar maak je al gebruik van Squarespace om op eenvoudige wijze de meest prachtige websites te maken?

206
00:31:44.896 --> 00:31:52.896
Wij hebben het in deze podcast vaak over het ten gelde maken van je content. Squarespace maakt het bouwen van je eigen paywall makkelijker dan ooit.

207
00:31:53.076 --> 00:32:04.556
Stel je voor dat jouw kennis en content niet alleen mensen bereiken en inspireren, maar ook een bron van inkomsten worden. Met Squarespace Member Sites kan dit werkelijkheid worden.

208
00:32:04.756 --> 00:32:16.256
Creëer exclusieve secties op de website, zet er een betaalmuur voor, bepaal je prijs en begin met het verkopen van toegang tot je online cursussen, video's, betaalde nieuwsbrieven en meer.

209
00:32:16.336 --> 00:32:23.216
Elk aspect van je lidmaatschap site, van de landingspagina tot de aanmeldingsprocedure is volledig aanpasbaar.

210
00:32:23.796 --> 00:32:35.396
Squarespace maakt het je makkelijk om je eigen website te maken, zodat je je kan focussen op het gedeelte van je werk wat je wel leuk vindt het verkopen van je product. Realiseer je passie met Squarespace.

211
00:32:35.436 --> 00:32:38.796
En speciaal voor Pokie luisteraars hebben we een speciale kortingscode.

212
00:32:39.296 --> 00:32:53.336
Ga naar Squarespace com slash Pokie voor een gratis trial en ben je klaar om je website te lanceren, dan krijg je met de code Pokie tien 10% korting op je eerste aankoop. Tel uit je winst. Nou, terug naar de show.

213
00:32:54.636 --> 00:33:06.296
Dank je wel. Dat doe je vet goed, hoor. We hopen dat Alexander volgende keer weer terugkomt. Ook een commercieel commerciële rakker in jou. Mooi! Ja, ik merk wel dat het echt helemaal mijn bloed aan het stromen krijgt.

214
00:33:06.356 --> 00:33:22.676
Ja, het voelt goed zeg. Ik zei al waar we het over gaan hebben. We gaan het over over zoeken hebben en het is eigenlijk geïnspireerd op een zoektocht waar ik nu aan het begin van sta. Dat is mijn zoektocht naar een huis.

215
00:33:23.096 --> 00:33:33.896
Ik denk dat ik toch maar mezelf dermate serieus moet gaan nemen dat ik moet stoppen met roepen. Ik kan helemaal geen huis kopen als ik het nog nooit daadwerkelijk heb geprobeerd. Dus ik ga een huis proberen te vinden.

216
00:33:35.036 --> 00:33:44.236
En ik weet eigenlijk dan nog niet waar ik moet beginnen. Ik weet natuurlijk wel waar ik wil wonen, maar ik weet ook niet mijn hypotheek. En ik ben ZZP'er, dus dat is allemaal ook net wat ingewikkelder.

217
00:33:45.436 --> 00:33:56.696
Maar ja, ik dacht nu zit ik daar op Funda natuurlijk voor. Maar kan kan ik op een misschien wel een betere manier? Kan AI mij assisteren met het vinden van een huis? Het is een soort techno fix vraag eigenlijk.

218
00:33:56.706 --> 00:34:04.836
Dit dat is het eigenlijk ja. Maar ik zit te denken dat meteen toen je dit zei, kan je dan in gesprek gaan met. Laten we voor het gemak even chat GPT doen.

219
00:34:05.096 --> 00:34:13.776
De populairste en bekendste app die je kan installeren of site waar je naartoe kan van Joh, dit is mijn ding, ik ga een huis kopen. Dit is de situatie. Help mij! Wat zijn de stappen?

220
00:34:13.796 --> 00:34:24.916
En vooral hoe vind ik dingen die een ander misschien niet zo makkelijk vindt? Zodat ik een soort betere kans maak? Of hoe kan ik mezelf voorbereiden? Dit is wel echt. Kan dit? Is je vraag.

221
00:34:24.976 --> 00:34:35.756
Ik denk haast wel, maar dan krijg je meer een soort strategie denk ik. Een soort plan. Ja, maar het is niet dat. Niemand gaat het voor mij doen. Mensen wel, want je kan natuurlijk gewoon een aankoop makelaar.

222
00:34:35.796 --> 00:34:44.316
Maar jij vraagt eigenlijk is er een AI aankoop makelaar? Dat zou, dat zou ideaal zijn als het een aankoop makelaar is. Ik zit dus niet eens goed genoeg in de terminologie.

223
00:34:44.856 --> 00:34:50.896
Dus aankoop makelaar, dat heb ik natuurlijk ook nodig. Dus eigenlijk moet ik eerst. Dat moet niet. Maar naar een aankoop makelaar.

224
00:34:51.016 --> 00:34:58.156
Vaak als de markt moeilijk is en dat is die al een aantal jaar, dan is het fijn om iemand te hebben die je helpt. Het is wel zo dat er een aantal platforms zijn.

225
00:34:58.195 --> 00:35:05.016
Ik ga geen reclame maken, maar die kan je zo nog klassiek bij elkaar googlen. Die dus eigenlijk aankoop makelaar spelen in software.

226
00:35:05.596 --> 00:35:14.356
Dus wat die hebben is gewoon een gigantische database en die houden Funda in de gaten en andere bronnen. En die weten wat voor huizen betaald is in het verleden en dat soort dingen.

227
00:35:14.556 --> 00:35:20.836
En die, die zijn eigenlijk een soort laten we het geen AI noemen, maar het is een techno fix technologie die jou assisteert. Maar

228
00:35:22.056 --> 00:35:33.456
een AI assistent die voor jou een soort van makelaar speelt, dat is is er denk ik nog niet. Ja, sommige partijen zullen zeggen dat ze het zijn, maar op de manier dat jij en ik het misschien zouden verwachten.

229
00:35:33.496 --> 00:35:43.276
Dus die echt telefoontjes gaat plegen en die echt voor jou als een assistent aan de gang gaat. Dat, dat lijkt mij zo fijn als dat gebeurde en dat scheelt ook zoveel geld.

230
00:35:43.356 --> 00:35:53.516
En dan kunnen die mensen die aankoop makelaar zijn misschien ook iets, iets anders een leuke baan gaan doen. Geen oordeel. Nee. En dat is toch voor iedereen een win-win situatie? Wist jij dat een makelaar makelt?

231
00:35:53.616 --> 00:36:05.196
Dat is echt zo. Makelen is dat. Dat las ik laatst in een artikel. Is dat echt zo? Die makelen? Ja. Of ik ben voorgelogen in de in de regionale krant. Maar. Makelen. Die makelen. Maar zijn we een stukje makelen?

232
00:36:05.376 --> 00:36:15.016
Ja, wat jij eigenlijk zegt is van ik heb een. Want dat is het met zoeken. Daarom is dat woord zo groot, hè. Misschien ook even los van mijn huis, want we gaan. Waarom begint Milou ineens over haar huis? Ja.

233
00:36:15.076 --> 00:36:24.836
Ja, dat dat, dat speelt natuurlijk gewoon. Maar daardoor dachten wij van is dat niet dat hele zoeken? Want er is ook. Kijk, wij zijn groot geworden met Google. Ik weet nog.

234
00:36:25.676 --> 00:36:36.056
Ik weet nog mijn eerste encounter met Google met Google Search. Wil je dat horen? Ja, zeker weten. Een groot deel van mijn familie die woonde en woont nog steeds trouwens, maar woonde destijds in Friesland.

235
00:36:36.436 --> 00:36:48.908
En ik weet nog heel goed dat we een keer bij mijn oom en tante thuis waren en dat een van mijn neven, mijn neven waren een stuk ouder dan wij, al iets van vijftien jaar ouder, 10 tot 15 jaar ouder.En zij lieten mij zien.

236
00:36:49.408 --> 00:36:58.728
Kom Milou, kom eens even mee naar de computer. Ik ben mijn zusje en met mijn broer ook mee naar de computer en ze zeiden: je kan dit alles vragen wat je wil. Hij heeft het antwoord. Dit.

237
00:36:58.888 --> 00:37:11.588
Dit heeft het antwoord op al jouw vragen. En toen dacht ik nog wow. Jij zei Is dit een soort taalmodel? Ja, generatief AI. Zo lang heb ik hier op gewacht. Ja, toen ik negen was of zo.

238
00:37:12.628 --> 00:37:23.908
Of langer geleden misschien wel, maar ik ben dat nooit vergeten. En ik weet ook nog wat ik heb gevraagd toen. Ik met mijn wijsneusigheid vroeg toen oké, wat was er eerder de kip of het ei? Super goede vraag. Goede vraag.

239
00:37:24.328 --> 00:37:32.128
Vraag dat. Dat hebben we wel ingevoerd, maar het werd niet. Het werd niet. Maar weet je zeker dat het Google was? Nee, maar ik denk het kan bijna niks anders zijn geweest.

240
00:37:32.168 --> 00:37:42.428
Ja, want ik moet even mijn leeftijd flexen, want het kan dus ook. AltaVista, Eels, punt.nl vinden punt NL Yahoo! Yahoo Search Zeker nice dus, want dat is even de vraag.

241
00:37:42.488 --> 00:37:52.808
Maar ik weet, ik weet nog wel dat ik was van AltaVista gebruiker. Ja, dat ik ook dit soort vragen stelde als kind. Die grote vragen ja, maar je weet niet meer wat het antwoord was. Nee, nee.

242
00:37:52.868 --> 00:38:00.948
We kregen wat linkjes, maar ik weet het inderdaad niet 100% zeker dat het Google was. Dat is waar. En ik besef me nu pas eigenlijk wat. Wat voor grappige naam. Het eigenlijk is een zoekmachine.

243
00:38:01.018 --> 00:38:10.308
Het is eigenlijk heel cute. Ja, ja. Wat is dit voor machine? Een zoekmachine. Maar ook niet een vind machine dus. Nee. Ja, dat was Vinden.nl wel, maar de rest niet. Ja, een zoekmachine. Zoekmachine.

244
00:38:10.348 --> 00:38:18.668
Maar waarom vertel ik dit eigenlijk? Over zoekmachines gesproken. Ja. Nou ja, kijk, want we zeggen als je het nu over een zoekmachine hebt, dan heb je het gewoon over Google.

245
00:38:18.768 --> 00:38:32.888
Dus Google is gewoon heer en meester in die business. En daar verdienen ze natuurlijk ook zo ongeveer al hun geld mee. Maar nu heeft Sam Altman van OpenAI. We hebben hem al eerder voorbij horen komen.

246
00:38:33.348 --> 00:38:46.548
Heeft gezegd Of heeft hij dat gezegd eigenlijk? Ja, in een interview zei hij dat. Hij heeft wel eens gezegd al van wij willen wel Google Search gaan uitdagen op dat vlak. Wij willen ook iets met zoeken gaan doen.

247
00:38:46.648 --> 00:38:55.008
Ze zeggen niet van we willen een zoekmachine precies kopiëren, maar het is wel zo duidelijk volgens mij dat zij ook denken dat ze die markt. Wat een zoekmachine doet. Ja.

248
00:38:55.748 --> 00:39:10.648
Waar mensen zoekmachines voor gebruiken en vooral Google, daar kan OpenAI ook wel een rol in spelen. Dit is natuurlijk ook de hele reden dat er vanuit Google al jarenlang zoveel geld geïnvesteerd is in AI.

249
00:39:10.828 --> 00:39:20.308
Omdat zij echt wel hebben voorzien dat dat gewoon een potentieel gigantisch risico voor het bedrijf Google is. Op het moment dat jij een alwetende intelligentie hebt.

250
00:39:20.348 --> 00:39:28.028
Eigenlijk zoals jouw neven destijds aan jou verkocht hebben. Ja. Van hier kan je alles aan vragen. Dat wordt nu meer waar. Ja. En als dan een deel van.

251
00:39:28.157 --> 00:39:36.268
Want dat is natuurlijk wel zo bij die zoekmachines, die kan je voor van alles gebruiken. Ik zoek een huis, noem maar op. Ik zoek een bepaalde website. Heel veel mensen gebruiken Google ook als URL-balk.

252
00:39:36.308 --> 00:39:43.168
Dat vindt Google ook heel chill. Dus je moet naar Marktplaats toe. Typ je Marktplaats in in Google kom je op Marktplaats. Niet helemaal de bedoeling, maar wat Google betreft prima.

253
00:39:44.908 --> 00:39:55.368
Een zoekmachine kan je voor van alles gebruiken en de vraag is zijn er veel taken die je nu in Google gooit die je ook in een taalmodel zou kunnen gooien van OpenAI? Ja, ja.

254
00:39:56.208 --> 00:40:07.588
Dus in die zin maakt Google zich al langer zorgen over en is OpenAI gewoon. Ja, er is nu laatst dus ook iets daaruit gekomen dat ze 111 webadres, een URL. Ja.

255
00:40:07.688 --> 00:40:17.428
Ja, precies, want zij hebben die chat GPT, wat eigenlijk een soort gelukje is. Of nou ja, een een per ongeluk succes. Want dit is een chat versie van hun taalmodel.

256
00:40:18.728 --> 00:40:28.878
Die domeinnaam chat GPT punt COM is niet door OpenAI geregistreerd destijds, maar door iemand anders die dacht hey, die is nog vrij, hier ga ik even geld mee verdienen. Die heeft OpenAI inmiddels gekocht.

257
00:40:29.157 --> 00:40:36.778
Dat soort dingen kan je allemaal bijhouden doordat er mensen zijn die tools hebben geschreven, die domein registers in de gaten houden en ook kunnen zeggen hey, wat gebeurt daar? Chat GPT is ineens van iemand anders.

258
00:40:36.788 --> 00:40:43.268
Chat GPT punt COM. Dat was al gesignaleerd. Wat nu ook gesignaleerd is dat het subdomein search punt chat GPT punt COM.

259
00:40:43.888 --> 00:40:50.608
Ja, dat is niet een registratie dan, maar dat daar een certificaat voor uitgegeven is zodat het netjes https kan zijn. Secure.

260
00:40:51.568 --> 00:41:07.847
Want er zijn ook mensen die certificaten monitoren en dat heeft ervoor gezorgd dat aangezien aan de hand van de aantal hintjes die Sam Altman tijdens interviews heeft gegeven als hem gevraagd werd door de interviewer van joh, hoe kijken jullie eigenlijk naar de search market, zoals het dan heet, de space van zoeken?

261
00:41:08.428 --> 00:41:12.808
Dat hij zei Nou, er wordt zeker naar gekeken, intern en dus nu komt het een beetje bij elkaar allemaal.

262
00:41:13.328 --> 00:41:26.788
Dat er waarschijnlijk op zeer korte termijn op search punt chat GPT punt COM, waar dus nu nog niks staat voor de luisteraar. In ieder geval toen we dit opnamen niet een iets van een zoekmachine. Ja. Gaat verschijnen.

263
00:41:26.918 --> 00:41:37.128
Ja en hoe ziet hij dat dan precies voor zich, die Sam Altman? Nou, hij heeft eerder een keer dit gezegd. You know, Google shows you like ten blue links. Well, like thirteen ads and then ten blue links.

264
00:41:37.888 --> 00:41:41.248
And that's like one way to find information.

265
00:41:41.268 --> 00:41:54.198
But the thing that's exciting to me is not that we can go build a better copy of Google Search, but that maybe there's just some much better way to help people find and act and on and synthesize information.

266
00:41:54.868 --> 00:42:00.708
Actually, I think chat GPT is that for some use cases and hopefully we'll make it be like that for a lot more use cases.

267
00:42:01.468 --> 00:42:11.128
But I don't think it's that interesting to say like how do we go do a better job of giving you like ten ranked web pages to look at than what Google does? Ja, er zit eigenlijk ook een beetje een klein sneertje in. Ja.

268
00:42:11.168 --> 00:42:19.568
Van ja, vooral krijg je advertenties en nog een paar linkjes die misschien relevant zijn. Ze willen wel dus echt iets, iets anders gaan doen.

269
00:42:19.628 --> 00:42:28.088
Ja, nee, hij zegt nu ook dat hoorde ik nu eigenlijk pas voor het eerst en nu ga ik er even meer in lezen dan dat er misschien aan de hand is. Maar hij zei act. En dat act is wel interessant, want.

270
00:42:28.108 --> 00:42:37.528
In welke context zei hij act? Nou, net zei hij volgens mij van dat Google dan voor jou kan x, y, z. En één daarvan was act. En dat is even wat anders dan zoeken.

271
00:42:38.288 --> 00:42:43.168
Zeg maar je kan aan een iemand in een bibliotheek vragen heeft u boeken over zebra's?

272
00:42:43.908 --> 00:42:52.828
Dan gaat die persoon voor jou in het register kijken of er boeken liggen.Maar niet voor jou naar de snackbar allemaal kroket voor je op te halen. Act is wat anders zeg maar. Dat lees ik wat breder in.

273
00:42:52.868 --> 00:43:04.588
Maar dat daar zit een beetje achtergrond achter. Omdat die Rabbit R1. Ik maak even een sprongetje. Maak je geen zorgen, dit, dit heeft zin. Die Rabbit R1, dat oranje apparaatje van Teenage Engineering onder andere.

274
00:43:05.208 --> 00:43:15.648
En Rabbit zelf. Ik denk dat zij Rabbit heten. Wat zij beweerden, en dat is nu gebleken dat dat niet helemaal waar is, is dat zij een Large Action Model hadden. Dus niet een taalmodel, maar een actiemodel.

275
00:43:15.668 --> 00:43:25.188
Een LAM, wat we het in de vorige aflevering hadden over die daarvoor. Ja, en die, uh, dat, dat actiemodel, dat bleek meer marketing dan waarheid. Uh, voor zover we nu kunnen zien.

276
00:43:25.608 --> 00:43:38.528
Want ze hebben eigenlijk een soort, ja, uh, rookgordijn. Dus hun, hun idee van een actiemodel, dus een, een, een intelligentie of een, een, een, een, een getraind model dat voor jou namens jou acties kan doen.

277
00:43:38.768 --> 00:43:42.788
Hè, net als een aankoopmakelaar namens jou dan aan de gang kan gaan op zoek naar een huis.

278
00:43:44.348 --> 00:43:54.948
Dat is op zich een interessant idee, uh, maar wat ze eigenlijk, eigenlijk hebben gebouwd bij Rabbit is een systeem, uh, waarbij ze een, een computer voor jou op knopjes laten drukken op een website.

279
00:43:54.988 --> 00:44:07.008
Op een vrij primitieve manier en dat hebben herpak-verpakt als een soort dit is een voor jou werkende artificial intelligence. Ja. Dus het is meer oude technologie gerebrand als iets coolers wat het eigenlijk niet is.

280
00:44:07.208 --> 00:44:14.648
Blijkt nu bij Rabbit. Als jij bij Spotify op play drukt, dan ging die gewoon op de Spotify website achtergrond met de muis naar play en dan heel- Ja. Primitief. Ja.

281
00:44:14.868 --> 00:44:24.667
Maar dat idee dat iets voor jou acties gaat doen op het internet, voor jou het internet rond gaat klikken is een idee wat helemaal niet zo heel gek is en waarschijnlijk ook gaat gebeuren.

282
00:44:25.268 --> 00:44:34.988
En in dat opzicht kan ik me wel voorstellen dat waar Sam Altman een beetje naar hint is dat ChatGPT, uh, meer een soort zoekassistent kan worden voor jou.

283
00:44:35.128 --> 00:44:52.168
Eigenlijk wat we net een beetje hardop aan het dromen waren over van: kan die dan niet even al die huizensites langs en die verschillende supersites die zijn ontwikkeld en daar allemaal accounts op aanmaken en dan gewoon mij een appje sturen van: joh Milou, ik heb hier wat toffe huizen voor je gevonden, want ik ben jouw zoekmaatje en we gaan eens even samen zorgen dat jij een tof huis krijgt.

284
00:44:52.198 --> 00:45:01.588
Ja. Wordt een soort persoon. Ja. Zie hier even het risico dat Meta dit gaat bouwen in WhatsApp. Als jouw WhatsApp maatje die met jou een huis gaat zoeken. Ja. En dat Google gewoon volledig, uh, uh, omzeild wordt.

285
00:45:01.648 --> 00:45:11.648
Gepasseerd. Ja. Ja. Of wat natuurlijk al een beetje gebeurt nu. Als jij in ChatGPT zoekt, dan zegt hij soms: ik ga even naar Bing. En dan is hij dus eigenlijk al voor jou Bing aan het gebruiken. Ja.

286
00:45:11.948 --> 00:45:21.547
En nou ja, dan kan het natuurlijk ook zo zijn dat hij zegt: ik ga even naar Google. Maar dat Google niet meer op advertenties geklikt wordt, want het is een chatbot die het voor je doet. Dus. Ja.

287
00:45:22.248 --> 00:45:25.408
Vandaar de- Dus daar verdwijnt ook weer een verdienmodel dan voor Google.

288
00:45:25.828 --> 00:45:36.888
Ja, dus er zit best wel wat in als OpenAI, uh, die zien waarschijnlijk in hun statistieken dat hun chatbot al gebruikt wordt voor dingen waar voorheen Google voor gebruikt werd. Mhmm.

289
00:45:36.928 --> 00:45:43.767
En dat zij nu natuurlijk gaan kunnen gaan kijken, maar waar wordt het dan nog niet voor gebruikt? En hoe kunnen we dan zorgen dat het ook daarvoor gebruikt gaat worden? Ja.

290
00:45:43.888 --> 00:45:53.548
Dus ik verwacht eigenlijk waar, uh, ChatGPT zich voordoet als een chatbot. Hè, daarom werd het ineens zo'n succes. Mensen dachten: oh, chatten, dat kan ik wel. Dat doe ik de hele dag al op mijn WhatsApp. Ja.

291
00:45:54.208 --> 00:46:05.248
Dat dit een soort toch wel een interface wordt à la Google. Dat is een beetje wat Perplexity ook doet. Het is een beetje een AI powered search engine. Ja, die geeft allemaal links met bronnen en dat je meer kan kijken.

292
00:46:05.308 --> 00:46:05.388
Ja.

293
00:46:05.488 --> 00:46:14.408
Ik denk eigenlijk om heel eerlijk te zijn dat we zitten, ik zit het nu te hypen alsof het een soort van, uh, uh, de volgende Segway wordt, maar, uhm, [lacht] waarschijnlijk is het gewoon Perplexity, maar dan van OpenAI.

294
00:46:15.178 --> 00:46:26.468
[lacht] Ja, oké. Ja. Dus iets wat echt bedacht is van: we gaan samen zoeken. Ja, precies. En zou dat, zouden mensen dat gaan gebruiken, denk je? Nou, voor mij heeft Perplexity al een aardig succes. Ja.

295
00:46:26.508 --> 00:46:37.188
Als in dat daar wordt positief op gereageerd. Er wordt ook voor betaald, dus er zit waarde in voor mensen. En ik kan me voorstellen, uhm, ja, b-browsers zoals je die Chrome, Safari, uh, Edge zeg maar.

296
00:46:37.488 --> 00:46:46.268
Dat heten eigenlijk officieel user agents. Uh, dat zeg maar, en dat is het idee is dat het een agent is die voor jou werkt om met jou samen over het internet te gaan.

297
00:46:46.368 --> 00:46:55.868
En, uh, uh, het scheelt jou, uh, de, de, de, de belofte daarvan. Die zit hem er dan dus in dat, dat je al dat klikwerk zelf niet meer hoeft te doen. Ja. Dus dan maak je het net iets makkelijker.

298
00:46:55.988 --> 00:47:03.048
Koop dit boek voor mij Bol en ik zie wel als die thuis komt en dan wordt het allemaal voor je gedaan. Oh, dat is relaxed. Ja, het is heel chill.

299
00:47:03.088 --> 00:47:13.628
En op die, op die manier, uh, worden natuurlijk wel heel veel dingen omzeild. Ja, want zo kom je veel minder reclame tegen. Want als je Bol.com bekijkt en dan zie je nog even van wat je vorige keer ook weer had gekocht.

300
00:47:13.688 --> 00:47:22.528
Ja. Laat ie dan ook zien. Heb je hier nog meer van nodig? Of iets wat misschien. Als je het advies ook vraagt aan die bot, dan is de vraag of die bot helemaal neutraal is. Nou, dat is inderdaad dus ook wel mijn vraag.

301
00:47:22.548 --> 00:47:30.848
Want hoe weet je nou of die vondsten niet gemanipuleerd zijn of gesponsord op een bepaalde manier? Ja, nou, niet denk ik, als we daar niet afspraken over maken dat dat expliciet getoond moet worden.

302
00:47:30.908 --> 00:47:42.488
Ja, maar hoe is er dan nog geld bij, uh, aan te verdienen? Nou, ik denk dat je dan- Voor die, voor die bedrijven. Dat jij dan als, uh, L'Oréal zijnde kan betalen aan OpenAI. Dat jouw shampootje wordt- Ja.

303
00:47:42.528 --> 00:47:51.268
Gepusht en dat er dan netjes bij staat: dit shampootje staat hier eigenlijk omdat ervoor betaald is. Ja. Ga ik dan even naar Yves van uit dat dit geregeld [lacht] kan worden. Ja. Ja. Ja. Ja.

304
00:47:51.788 --> 00:48:00.548
Maar het zou dus wel, het, het zou wel. Op zich klinkt het wel aantrekkelijk. Ik heb dan geen Google meer nodig als ik gewoon op, op die manier natuurlijk te werk kan gaan. Nou, dat is misschien wel een, uh, goeie vraag.

305
00:48:00.648 --> 00:48:09.828
Zoek het beste recept voor cheesecake. Maar wanneer zou jij geen Google meer nodig hebben? Uuuhm, als het, als het efficiënter is.

306
00:48:10.008 --> 00:48:19.128
Als ik niet zelf nog tussen die resultaten hoef te kiezen wat de beste match is voor wat ik, waar ik naar op zoek ben. Ja. Dus inderdaad, soms zoek ik een recept voor cheesecake.

307
00:48:19.188 --> 00:48:24.308
Inmiddels niet meer, want ik heb mijn eigen al zo geperfectioneerd dat het niet meer nodig is. Snap ik. Maar stel je voor dat je dat zou moeten doen.

308
00:48:24.668 --> 00:48:34.748
Dan wil je niet de recepten waar maar twee, die maar twee sterren krijgen van mensen. Je wil het beste recept. Maar ik denk dus wel dat jij al een heel end zou komen met Perplexity dan, als je dit zou gebruiken. Ja.

309
00:48:34.878 --> 00:48:44.988
In dat zich, als je een beetje wil voelen, uh, wat OpenAI ook bijzonder, uh, goed aanvoelt nu. Van hoe gaat de toekomst van zoeken eruit zien? Dat er al een aantal partijen zijn die al wat stappen hebben gezet.

310
00:48:45.538 --> 00:48:57.764
Die zijn alleen nog een beetje te technisch vaak in hoe ze voelen. Ja. Dus dat is wel, uhm. Ja. Ja. Ja. Maar, i-, uh, ik heb dus ook wel een beetje. KijkHoe? Soms weet je ook niet waar je naar op zoek bent.

311
00:48:57.904 --> 00:49:04.264
Weet je wel, ik, ik weet nog wel dat je met Google had je ook nog de functie in de begintijd en volgens mij is die er niet meer. Ja, I'm feeling lucky.

312
00:49:04.344 --> 00:49:12.604
Ja, niet dat ik daar heel vaak op heb geklikt, maar als je dan, dan ga je, krijg je dus een, een, een random zoekopdracht dan, dan kom je gewoon wat dingen tegen.

313
00:49:12.664 --> 00:49:20.964
Dan weet je niet wat hij gaat googelen, maar dan heeft hij wat voor je gegoogeld en dan kom je het leukste tegen. En als ik het even over het huis zoeken zou moeten. Stel dat je echt

314
00:49:21.984 --> 00:49:37.964
een, een vraag van: nou, zoek een paar leuke huizen voor mij in de omgeving Amsterdam en ik wil dat ze een tuin hebben en een, uh, nou ja, een paar voorwaarden waardoor je dus niet meer, uh, huizen met een dakterras ziet, terwijl je wel verliefd zou kunnen worden op een huis wat zo leuk is, maar ja, dan geen tuin heeft, maar een dakterras.

315
00:49:38.244 --> 00:49:47.064
Maar ja, die selecteert hij uit voor je. Dus je komt, weet je altijd precies naar wat je op zoek bent. Ja, want dit is voor mij. En kun je dat ingeven?

316
00:49:47.204 --> 00:49:54.924
Wat bij, uh, datingprogramma's dus ook heel vaak bleek dat mensen dan van tevoren een profiel gingen invullen van hun ideale partner. Dat ook.

317
00:49:55.044 --> 00:50:03.964
Gingen ze daten en dan achteraf dat profiel vergelijken voor wie ze gekozen hadden was helemaal niet die partner. Mensen weten helemaal niet zo goed wat ze willen of wat ze nodig hebben soms. [lacht] Ja.

318
00:50:03.984 --> 00:50:11.784
Dat denk ik echt. Dat wist ik niet. Kijk, ik heb niet eens een, een duidelijk carrièrepad. Ik doe gewoon de dingen die ik leuk vind. Ja. En die, die ik tegenkom.

319
00:50:11.814 --> 00:50:23.084
Maar zou jij dan eigenlijk dus willen dat, uh, als er voor jou namens jou gezocht wordt, want dat, dat is eigenlijk wat deze agents dan gaan doen voor jou. Ja, ja. Van joh, gooi er ook eens even een wildcard in.

320
00:50:23.164 --> 00:50:32.104
Of, uh, ik weet eigenlijk nog niet zo goed wat ik wil. Ja, verras me maar. Ze mogen een beetje brutaal zijn als in joh, je kunt best ook wat, wat aan me aanraden waar ik misschien zelf nog niet over nagedacht heb.

321
00:50:32.224 --> 00:50:41.884
Ja, dat zou kunnen. Niet te correct of zo. Of niet te. Ja, niet te. Strak. Ja, precies. Niet te strak. En dan zit ik nu nog te denken dat de vraag uiteindelijk is of het Google lukt.

322
00:50:42.244 --> 00:50:53.824
Ze hebben op zich het geld en het talent om eerder zo'n zoekmachine te worden dan dat OpenAI ze kan vervangen. Ja, dat, dat lijkt mij een sterke aanbeveling voor, [lacht] uh, voor Google inderdaad.

323
00:50:54.184 --> 00:51:02.484
Ja, anders zijn ze gewoon overbodig. Wat zou de meest, wat zou het meest gezochte zijn op Google? Nou, tegenwoordig zit er wel trending in, maar ik weet nooit goed hoe dat gekozen wordt.

324
00:51:02.544 --> 00:51:04.444
Daardoor zie ik een beetje waar Nederland op zoekt.

325
00:51:04.454 --> 00:51:13.003
Maar ik heb ook het idee dat, dat een, een, zeg maar als je tegenwoordig op, op Google zoekt, dan staat er een soort van lijstje onder met een pijltje erbij van oké, dit is wat vandaag.

326
00:51:13.404 --> 00:51:22.714
Vaak is dat een beetje iets wat in het nieuws is, of een, of een schandaal of. Ja. Een uitslag van een voetbalwedstrijd. Maar, uhm, je hebt wel Google Search Trends trouw-trouwens. Ja.

327
00:51:22.714 --> 00:51:30.104
Dat is echt wel een ding waarop, uh, uh, je kan, kunt kijken van hoe, het loopt een beetje achter en het is alleen op grotere keywords, maar. Ja.

328
00:51:30.324 --> 00:51:40.744
Het lijkt me fascinerend om bij Google mee te kunnen kijken waar, waar, waar mensen op Googelen. Zal ik eens zeggen. De, de top hundred Google searches in de US, da's US. Dan eventjes. Zit je bij Google zelf trouwens?

329
00:51:40.844 --> 00:51:50.924
Weet je waar je dat nu zeg maar ziet? Nee. Ja, via Google ben ik hier wel gekomen. Ja. [lacht] Ja, dat is niet zoveel. Maar kom maar op met die lijst. Ja, nou, op nummer één, uh, staat YouTube. Ja, grappig.

330
00:51:50.984 --> 00:52:04.684
Op twee en drie, een gedeelde tweede plek, uh, Amazon en Facebook. Op vier weather. Dat gaat over het weer denk ik. Zeker. Toch ons favoriete gespreksonderwerp. Blijkbaar. En, uh, Google staat op vijf.

331
00:52:04.954 --> 00:52:11.624
[lacht] Die mens zit in een soort cirkeltje inmiddels al heel lang. Maar het zijn dus vooral plekken waar mensen naartoe gaan. Dus vandaar.

332
00:52:11.634 --> 00:52:19.204
Ik krijg Gmail, Wordle, Google Translate, Translate, Walmart, Yahoo, eBay, Fox News, Google Maps, Home Depot.

333
00:52:19.224 --> 00:52:25.444
Ja, maar dat is echt omdat mensen eigenlijk die, en dat, de, dat heet dan voor mij de unibar of zo in [lacht] Firefox en Chrome.

334
00:52:25.964 --> 00:52:31.744
Dat eigenlijk de plek waar je normaal een, uh, URL zou intypen dat dat ook gewoon eigenlijk een zoekveld tegelijk is. Ja.

335
00:52:32.204 --> 00:52:41.654
En, uh, ik irriteerde me daar vroeger altijd erg aan, omdat ik zag dat mensen Facebook intypte op Google en dan er op die manier naartoe gingen. Maar ja, uh, Google vindt het prima, want er is meer traffic voor hun. Ja.

336
00:52:41.684 --> 00:52:44.784
En ze kunnen nog wat andere dingen er omheen aanbieden. Ja. En mensen een beetje volgen.

337
00:52:45.444 --> 00:52:55.313
Maar het is eigenlijk een beetje een rare manier van, als, als purist, webpurist baal je er natuurlijk van, want die domeinnamen waren juist bedoeld dat je er d-direct naartoe kon. Niet met een tussenstapje. Ja.

338
00:52:55.324 --> 00:53:06.504
Via de bibliothecaris die, uh, geld verdient aan jouw vragen. Nee, dat hebben ze er handig tussen geworsteld, want er zit ook allemaal dingen als Taco Bell, Chipotle. Ja, [lacht] dat is mooi.

339
00:53:06.624 --> 00:53:17.944
En allemaal gewoon, ja, eetdingen. Starbucks, Pizza Hut, McDonald's, IKEA, IKEA. Nou goed. Ja, dat is allemaal, daarvoor, ja. Maar om, om, om even het belang aan te geven, zeg maar.

340
00:53:18.004 --> 00:53:28.684
Er is laatst naar buiten gekomen door een rechtszaak dat er, uh, uit mijn hoofd twintig miljard per jaar door Google aan Apple betaald wordt om Google de standaard zoekmachine te laten zijn in iOS, zeg maar op de iPhone.

341
00:53:29.224 --> 00:53:37.954
Mm. Dat is dus wat het Google waard is, zodat jij zoekt via Google. En, uh, je mag ervan uitgaan dat ze die twintig miljard weer terugkrijgen. Die ze betalen aan Apple. Tuurlijk.

342
00:53:37.954 --> 00:53:50.544
Om even aan te geven wat jij waard bent als gebruiker eigenlijk. Ja. Door, uh, hun zoekmachine te gebruiken. Ja. Dus, uhm, ja, neem van mij aan dat er gespannen gereageerd wordt op alle bewegingen die OpenAI maakt.

343
00:53:51.064 --> 00:54:02.884
Ik denk, om eerlijk te zijn in orde van grootte hoeveel mensen dagelijks, uh, ChatGPT gebruiken versus google.com. Dat Google nog de tijd heeft om google.com om te bouwen tot iets slimmers dan wat het nu is.

344
00:54:03.484 --> 00:54:12.424
Maar ze moeten wel, uh, hun best doen. Ja. Zijn er dingen waar jij, uh, Google niet meer voor gebruikt? Waar je alternatieven, betere alternatieven voor hebt gevonden?

345
00:54:13.084 --> 00:54:19.244
Ja, ik ben vooral andere dingen aan, aan mijn mobiel in dit geval, dat is waar ik het meest op zit, gaan vragen doordat ChatGPT bestaat.

346
00:54:19.294 --> 00:54:28.244
Dus ik denk dat ik meer dingen ben gaan vragen aan een computer dan dat ik dat vroeger deed. Uhm, ben ik minder Google gaan gebruiken? Ja, ja, programmeervragen vooral. Wat zou je normaal,

347
00:54:29.244 --> 00:54:35.164
zou je een bepaalde foutmelding krijgen of iets zou niet lukken wat je graag wilt en dan gooi je dat in Google. Maar dat doe ik echt helemaal niet meer.

348
00:54:35.404 --> 00:54:43.924
Dus aan mij, bij mij zijn ze wel een x procent verloren al wat ik dagelijks, uh. Ja. Ik zou het eigenlijk eens bij moeten houden. Dan kan je het een beetje meten, want ik vind het nu heel moeilijk te zeggen.

349
00:54:43.984 --> 00:54:52.804
Want ik vroeg net ook aan jou van: ben je al minder gaan googlen? Ja. Maar nee toch? Als in. Nee, ik, ik denk echt nog niet. Maar ik heb ook echt nog niet andere plekken waar ik, uh, heel veel op zit.

350
00:54:53.204 --> 00:55:00.859
Nog steeds heb ik nog niet echt, uh.Ja, het is een mooie tip Paul. Com. Ik ben er toch nog niet aan begonnen. Leuke tip man, maar gaan we maar niet doen.

351
00:55:00.980 --> 00:55:08.740
Ik zit in het begin helemaal uit te leggen hoe enthousiast ik ben over AI. Maar ja, ik gebruik het nog niet, maar ik zie wel dat het grote impact gaat hebben. Ja, ja. Ja.

352
00:55:08.770 --> 00:55:19.300
Maar toch is het wel denk ik dat uiteindelijk dit soort diensten ook. Dat zit dan in Funda. Dus dan is er de Funda buddy die binnen de Funda website een aankoop makelaar voor jou gaat spelen waarschijnlijk, waardoor

353
00:55:20.340 --> 00:55:29.820
je het mogelijk niet eens gaat inzetten buiten, maar gewoon naar de standaard pagina's gaat waar je vroeger doorheen ging of platforms. En dat daarbinnen dan een extra AI sausje overheen gegooid wordt.

354
00:55:29.980 --> 00:55:47.320
Op een hopelijk zinvolle manier. Ja. Fundi, de Funda bot. Ja. Vragen mensen niet vaker aan jou van hey, ik wil dit of dat kopen of ik, Ik zoek iets. Is daar al een AI voor? Nou, die dat ze dat die eerste dingen sowieso.

355
00:55:47.400 --> 00:55:59.060
Of welke laptop of welke auto krijg ik wel eens van mensen. Maar of er dan al een AI voor is dat. Dat zou wel mooi zijn als ze dat er achteraan zouden vragen, want dat scheelt mij dan weer. Ja, maar ik heb.

356
00:55:59.120 --> 00:56:05.640
Ik ben zelf nu natuurlijk een beetje aan het kijken doordat ik dus soms van die vragen krijg gewoon wat moet ik kopen of waar moet ik naartoe of zo.

357
00:56:05.940 --> 00:56:13.960
Niet dat ik een of andere reisleider ben, maar ik ben wel op plekken geweest waar moet ik in dat land naar toe of zo. Dat je die rol dus van zo'n adviseur.

358
00:56:14.160 --> 00:56:24.260
Of dat dat iemand is in een reisbureau of bij een autodealer die jou de juiste auto aan of de juiste auto voor de dealer. Ja, goed adverteert. Wat ze nog hebben staan en maar jarenlang niet van afkomen.

359
00:56:24.620 --> 00:56:34.020
Maar ik denk dat die rol dat we dat wel de komende tijd gaan zien, is dat je daar dus verschillende tools voor gaat hebben die jou echt helemaal mee kunnen nemen in zo'n proces.

360
00:56:34.400 --> 00:56:42.660
En dan is natuurlijk de vraag hoe is die tool betaald, Wie zit daar achter? Maar zeg een beetje de Independer.nl voor allerlei andere aankopen.

361
00:56:43.180 --> 00:56:55.720
En dan niet iets wat een lijstje weergeeft met dit is de goedkoopste en je kan klikken, maar gewoon echt jou als een adviseur meeneemt. Ik ben nog. Ja, dat die tools kunnen met wat er nu is gemaakt worden.

362
00:56:55.760 --> 00:57:05.539
Het is gewoon het is er gewoon nog. Het gaat ook weer terechtkomen waarschijnlijk in die bestaande platforms dat een ANWB auto advies tool komt waarbij je op de ANWB website geholpen wordt.

363
00:57:05.580 --> 00:57:17.140
Die is er waarschijnlijk al, maar nog niet zo slim als we hem zouden willen zien denk ik. Straks hebben we een brief van iemand. Of eigenlijk een mail van iemand die toch wel heel dicht bij Caroline van der Plas staat.

364
00:57:17.410 --> 00:57:28.040
Althans, hij is een betrouwbare bron durf ik wel te zeggen. En die reageert op onze aflevering van vorige week toen we haar even hoorden zingen. Althans niet haar, maar haar stem.

365
00:57:29.120 --> 00:57:39.240
Maar eerst de tweede sponsor in deze aflevering Incogni. En ja, dan wil ik beginnen met de vraag heb je er ooit bij stilgestaan hoeveel persoonlijke informatie er over jou te vinden is?

366
00:57:40.080 --> 00:57:50.220
Data makelaars creëren schaduw profielen die een angstaanjagende hoeveelheid gegevens bevatten, van je inkomsten tot je gezondheid en zelfs de namen van je familieleden.

367
00:57:50.280 --> 00:57:57.980
Ja, deze inzichten worden vervolgens gebruikt door oplichters, vreemden, verzekeringsmaatschappijen en zelfs de overheid.

368
00:57:58.510 --> 00:58:07.490
Maar gelukkig is er Incogni, een service die jouw gegevens bij data makelaars verwijdert en er zo de publieke toegang tot jouw privégegevens beperkt.

369
00:58:08.120 --> 00:58:22.340
Met Incogni krijg je weer controle over je eigen informatie, dus bescherm jouw gegevens door een account te maken bij Incogni. Je krijgt nu 60% korting door de link Incogni. Com Pokèpot te gebruiken. Dus Incogni.

370
00:58:22.540 --> 00:58:38.460
Com Pokèpot. Dus eigenlijk dus podcast zonder cast. Goed, dan hebben we de brief. Jij zit naar mij te lachen. Ja, het was fantastisch. Ja. Ja. Ben je overtuigd? Podcast zonder cast. Podcast zonder cast.

371
00:58:38.500 --> 00:58:49.860
Nou, dat is het wel ja. Straks gaan mensen het spellen met een T. En dat klopt niet. Snap hem. Een Pokèpot. We hebben een e-mail gekregen van een relatieve insider durf ik wel te zeggen.

372
00:58:50.280 --> 00:58:58.360
En hij reageert op de ja, het stemgeluid van Caroline van der Plas in. In het liedje van even tot hier dat we in de vorige aflevering hebben gebruikt.

373
00:58:58.700 --> 00:59:06.580
Dat was niet de echte Caroline, maar wel haar stem die dus door AI gemaakt werd. En hij mailt onder andere. Het is best een lange mail, maar hij mailt onder andere.

374
00:59:06.760 --> 00:59:14.019
Ik moest enorm lachen toen ik haar tussen aanhalingstekens stem opeens hoorde langskomen in dat liedje van de uitzending van afgelopen week.

375
00:59:14.280 --> 00:59:24.860
En dan sla ik even wat zinnen over, want anders laat ik weten wie het precies is en dat houd ik nog even geheim. Hij schrijft verder. Ze kan zeker zingen, ze heeft zelfs in een koortje gezeten.

376
00:59:25.080 --> 00:59:35.280
Dankzij haar heb ik mijn muzikale passie waar ik nog bijna iedere dag van geniet. Het was voor mij in ieder geval wel duidelijk te horen dat het nep was. En hij schrijft verder nog goed bezig.

377
00:59:35.360 --> 00:59:45.180
Altijd leuk om jullie kijk te horen. Ik hoor iedere keer dingen die ik nog niet wist. Ik zou zeggen ga af en toe vooral meer de diepte in. Dat is juist hartstikke interessant. Met twee uitroeptekens.

378
00:59:45.300 --> 00:59:53.680
We moeten meer de diepte in. Dat is wat ik hoor. Ja, we kunnen wel meer de diepte in. Ja, ik ben benieuwd wat hij dan van deze aflevering vindt. Nou, er zit wel heel veel techniek in, ook weer, dus ik ben benieuwd.

379
00:59:53.720 --> 01:00:07.840
Dat is diep ja. Ja, ik ben nog een dag. Hoewel ik dus heel erg geïnteresseerd ben, sta ik nog wel relatief aan die begin. Dat begin van die ja van van mijn kennis hierover dus. Maar ik kan wel hele goede vragen stellen.

380
01:00:08.060 --> 01:00:17.180
Zeker. Ja, en ik denk dat nu. Hij zei ook van ik hoorde meteen dat het nep was. Het is wel zo dat bij dat fragment uit even tot hier.

381
01:00:17.400 --> 01:00:23.780
Ik bedoel, ze hebben hun best gedaan en ik ben heel blij dat ze dat voorbeeld ook hebben gegeven. Er zit hier een maar. Maar het kan eigenlijk al veel beter.

382
01:00:24.000 --> 01:00:32.700
Ik zeg niet dat ik dat kan, maar ik heb voorbeelden gehoord van synthetische stemmen die nog veel overtuigender zijn. Het is nu tenminste nog van echt te onderscheiden voor de echte kenners.

383
01:00:32.860 --> 01:00:39.640
Dat kunnen we hieruit concluderen. Een beetje. Maar het is natuurlijk de vraag of het niet allemaal steeds echter gaat worden. Ja, je kan daar natuurlijk ook weer je trucje voor doen.

384
01:00:39.680 --> 01:00:43.780
Dat je zegt oké, dit is een opname die ik bijvoorbeeld stiekem heb gemaakt vanuit mijn tas of zo.

385
01:00:43.820 --> 01:00:54.060
En dat je daardoor de kwaliteit van de opname verlaagt waardoor je een beetje kan maskeren dat je iemand zijn stem hebt gekopieerd. Dat het niet super klinkt. Dat het niet super klinkt. Nu laat je echt iemand zingen.

386
01:00:54.360 --> 01:00:59.460
Dat is best wel een uitdaging zeg maar. Want je weet, als je iemand goed kent, weet je natuurlijk hoe die persoon daadwerkelijk zingt.

387
01:01:00.300 --> 01:01:09.420
Dus eigenlijk moet je vragen of je ouders je vanaf nu altijd zingend op willen bellen, want dat is nog het moeilijkst om na te doen. Ja, dat is dat is wel het beste idee denk ik inderdaad.

388
01:01:09.820 --> 01:01:19.060
Dus voortaan wij hebben het gehackt jongens zingen dat. Iedereen moet naar elkaar gaan zingen nu. Dat kan AI niet. Wat AI denk ik ook niet kan, is vals zingen.

389
01:01:19.860 --> 01:01:27.680
Ik denk dat je, als je de opdracht geeft, dat dat best moeilijk. Kan, het natuurlijk ook weer wel. Natuurlijk wel ja. Waarom ben ik ook zo naïef? Natuurlijk kan dat, maar leuk. Leuk een mailtje.

390
01:01:28.380 --> 01:01:36.060
Stuur ook een mail zou ik zeggen. Ja, waar kunnen ze heen mailen? Volgens mij hebben we een formulier op Pokie punt show. Ja, we hebben ook een e-mailadres.

391
01:01:36.080 --> 01:01:45.520
Kan ik je vertellen Vraag het Pokie punt show Of is dat het formulier waar jij het over hebt? Nee, dit is gewoon het e-mailadres. Ja, ja. Ja. Het e-mailadres Ja. Ja. Ja. Stuur ons een mail.

392
01:01:45.820 --> 01:01:52.920
Wie weet behandelen we hem volgende keer of de volgende keer weer een techno fix. Ik weet wel zeker dat we een techno fix doen, want ik heb hem al klaar staan.

393
01:01:53.500 --> 01:02:03.600
Maar daar verwachten we weer even dat Alexander ook terug is. Dan was dit Pokkie voor ja, deze keer. We danken Sam Hengeveld voor de edit en nog steeds staat het aanbod.

394
01:02:03.640 --> 01:02:16.760
Als je nou een lezing wil over AI van Wietse of van Alexander, dan kan dat. Mail ons niet op Vraag het Pokie punt show, maar op Lezing het Pokie punt show. Ja. Zijn er nog meer e-mailadressen? Dit zijn ze volgens mij.

395
01:02:16.880 --> 01:02:27.090
Oké, voorlopig. Voorlopig. Misschien krijg ik straks ook wel een eigen e-mailadres. Nou, tot de volgende keer. Tot de volgende keer. [outro muziek]
