WEBVTT

1
00:00:00.100 --> 00:00:09.480
[alarm] Oh. Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:21.700
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid. Ervaar een ultiem gladde en comfortabele scheerbeurt.

3
00:00:22.500 --> 00:00:32.780
Ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan. Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat.

4
00:00:33.720 --> 00:00:50.960
De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen. Koop de Philips S9000 Prestige bij jouw favoriete winkel. [geluid] De Bright podcast brengt je elke week de nieuwste gadgets.

5
00:00:51.120 --> 00:01:01.740
Het is gewoon de allerbeste Apple Watch die er is. Tech nieuws. Instagram heeft weer eens een functie van de concurrentie afgekeken. Commentaar. Ik denk van nou dit was gewoon Volkswagen onwaardig die, die oplossing.

6
00:01:01.780 --> 00:01:12.840
En de beste tech tips. Mijn favoriete boek was Helgoland van Carlo Rovelli. Luister de Bright podcast elke woensdag in je podcast app. Wat een geweld. Het is zo lekker om naar te luisteren.

7
00:01:28.720 --> 00:01:41.920
[muziek] Je luistert naar Pokkie, een podcast over kunstmatige intelligentie waar Wietse Hagen en Alexander Klöpping jou en mij meenemen in de wondere wereld van AI. Ik ben Milo Brandt.

8
00:01:42.380 --> 00:01:48.860
En ja, er is een nieuw taalmodel geboren. Llama 3 van Meta, zogenaamd open source of echt open source.

9
00:01:48.940 --> 00:02:01.060
Nou Wietse kent zoals gewoonlijk alle nuances, maar één ding lijkt alvast zeker AI kruipt via Instagram en WhatsApp onze dagelijkse gebruik in en ook onze sociale interacties in. Gezellig, hè?

10
00:02:01.480 --> 00:02:08.840
Een keerpunt dat, uh, dat durven wij wel te stellen. En klimaatactiviste Hannah Prins heeft een probleem dat we gaan techno fixen.

11
00:02:08.880 --> 00:02:18.500
En ja, dan is er nog het nieuws waar ik deze week op stuitte en waar ik dolgraag duiding bij wil. En dat heeft deze keer alles met oplichting te maken. Hou je vast.

12
00:02:19.040 --> 00:02:29.590
[muziek] Uh ja, nee, ik heb deze week, uh, het nieuws doorgenomen, natuurlijk, zoals ik altijd doe. En daarbij let ik tegenwoordig specifiek op het AI-nieuws.

13
00:02:29.640 --> 00:02:40.500
En dan kom ik dus van alles tegen, waaronder dat je nu aan de hand van een foto, dus gewoon één foto, bijvoorbeeld een foto van Wietse. Dat is het enige beeld wat ik heb.

14
00:02:40.580 --> 00:02:51.720
Op basis daarvan kan je nu met, uh, VASA 1 van Microsoft. Ja, catchy. Ja, dat is altijd van die rare namen. Weet ik ook niet. Toch? Mag ook. We zijn het aan het doen. Vier letters, vrouwachtig.

15
00:02:51.740 --> 00:03:03.280
Ik zei het vorige keer Sora. Vier letters, vrouwachtig. Wat bedoel je hier nou weer mee? Sorry. Nou ja, dit is een reference naar eerder. Vier letters, vrouwachtig. Ja, dus dan heb je al die diensten zo. Suno, Sora,

16
00:03:04.320 --> 00:03:12.640
VASA. [lacht] Nee? Oké. Ik vind het een hele leuke theorie. Ik zie een patroon wat niet in, in. Nou, ja, het zou, het zou kunnen. De streak is ingezet. Het zou kunnen.

17
00:03:12.680 --> 00:03:23.250
We houden het in de gaten, uh, maar op basis van één foto kun je nu dus een ja, een, die foto of die, ja, die, die persoon in die foto laten praten. Ja. Laten zingen. Ja.

18
00:03:23.260 --> 00:03:31.560
En dan denk je van: oké, heb ik wel eens gezien, hè, op Instagram of op Twitter komen dan van die filmpjes voorbij van celebrities die een bekend nummer zingen en dat ziet er heel nep uit en dat zie je meteen. Ja.

19
00:03:31.880 --> 00:03:42.200
Maar het lijkt nu zo fokking echt. Heb je het filmpje gekeken? Ja. Ja. Ja, ik heb zelfs de Mona Lisa zi-zien zingen. Ja. En die ging ook met haar wenkbrauwen omhoog en zo en helemaal mimiek.

20
00:03:42.560 --> 00:03:49.840
Dus het is helemaal superrealistisch. Ik wou net zeggen dat ik de Mona Lisa het meest uncanny vond. Uncanny? Nou, dat ik echt dacht

21
00:03:50.760 --> 00:03:56.860
die Mo-Mona Lisa wordt vaker gebruikt als voorbeeld in dit soort tools waar ze proberen dus die beweging terug te brengen in een, in een statisch plaatje

22
00:03:57.780 --> 00:04:07.480
en op een of andere manier [kucht] ik bedoel, het blijft een bewegend schilderij, maar ik zag er iets in dat ik dacht: ja, dit had, dit kan het, dit kan het best wel eens, zo zou het best wel eens kunnen zijn gegaan. Ja.

23
00:04:07.520 --> 00:04:16.660
Als de Mona Lisa daadwerkelijk zou gaan bewegen. Ja. Ja, hoe, waar vergelijk je dat dan mee of zo? Maar ik voelde intuïtief aan dat ik dacht: oeh. Nee, maar dat, dat is het. Ja. Ja, het lijkt op leven.

24
00:04:16.840 --> 00:04:34.740
Ja, en hoe het dus werkt is je uploadt een, uh, foto, een JPEG en los een stuk audio en vervolgens interpreteert die AI dus, uh, de mondbewegingen, maar ook, en dat is wat het echt uncanny maakt, blijkbaar dus ook in het geval van de Mona Lisa, dat die, uh, hoofdbewegingen nadoet.

25
00:04:34.880 --> 00:04:45.060
En dat is wat het echt freaky maakt. Ja. Het is een, het is een hoofdbeweging van een hoofd dat een beetje opzij kijkt en ogen die meebewegen en alles. En dat maakt het, uh, dat maakt het hyperrealistisch.

26
00:04:45.220 --> 00:04:52.200
Ja, en ik was ook al gestuit op Vlogger. Dat is het model van Google. Dat doet eigenlijk best wel hetzelfde. Hm.

27
00:04:52.320 --> 00:05:03.300
Ik weet niet of jullie daarbij een verschil hebben gezien of dat er überhaupt een verschil is of dat- Ze hebben een verschillende aanpak, maar er is zo'n battle tussen, uh, research papers waarin, want ze vergelijken ook altijd eerdere methodes.

28
00:05:03.330 --> 00:05:13.000
Ze zeggen dan: "kijk, zo, dit was de previous method en nu wij", weet je wel. Ja. En daarin is het gewoon iedere zes maanden een soort spelletje van oké, nu, nu is het nog weer wat beter.

29
00:05:13.040 --> 00:05:22.190
En nu, uh, dus er zitten heel veel partijen in dit spel van dat doen. En om dan misschien voor de luisteraar die denkt wat is hier een goede toepassing van behalve hele enge deepfakes bijvoorbeeld. Mhmm.

30
00:05:22.280 --> 00:05:27.440
Uhm, wat je ermee zou kunnen maken. Ik denk dat dat Microsofts doel ook is, is om, uhm, Teams

31
00:05:28.440 --> 00:05:33.040
te zorgen dat op het moment dat jouw verbinding wegvalt, dat je dan nog even anderhalve seconde doorgaat in je hoofdbewegingen.

32
00:05:33.340 --> 00:05:44.020
Want dan hebben ze niet alleen, dan hebben ze eigenlijk het stilstaande plaatje van jou, maar in essentie ook een model van jou kunnen trainen even, waardoor- Ja...jouw gezichtsbewegingen dus gewoon vloeiend doorgaan, terwijl de verbinding misschien niet meer zo vloeiend.

33
00:05:44.060 --> 00:05:52.700
Oh ja. Dat is wel echt een ding. Ja. Met slechte telefoonverbindingen. Hoe vaak zit je in videocalls waarbij het gewoon toch echt te vaak buffert en hapert en zo? Dat is gewoon niet chill.

34
00:05:52.760 --> 00:06:03.240
Daarom ben je ook gewoon moe na, na een uurtje zoomen. Daarom was corona ook zo'n- Zo vermoeiend. Vermoeiend tijdperk. Ja. In ieder geval een deel daarvan. En dit is dus superlage, uh, ja, hoe wil je dat zeggen?

35
00:06:03.480 --> 00:06:11.480
Er wordt heel weinig data over de lijn gestuwd omdat hij alleen maar die hoeft, de signaaltjes hoeft te vertellen. Zo, hij beweegt zijn mond of, uh, hij beweegt zijn ogen. Ja.

36
00:06:11.540 --> 00:06:14.530
In plaats van de hele video waardoor het veel minder data kost. Ja.

37
00:06:14.580 --> 00:06:23.240
Ja, maar het beeld wat ik nu dus heb gekregen, want ik weet nog een paar afleveringen geleden, toen zaten we hier ook en toen hadden we het over een vrouw die had filmpjes van zichzelf opgestuurd naar een bedrijf. Ja.

38
00:06:23.270 --> 00:06:34.404
En die hebben op basis daarvanHetzelfde gedaan eigenlijk, maar daar heeft ze heel veel filmmateriaal voor moeten besturen. Is er nu binnen zo'n korte tijd, zijn we nu al zoveel verder? Er is alweer zoveel.

39
00:06:34.444 --> 00:06:44.083
We zijn alweer zoveel verder. Want het is ook zo dat. Je moet niet vergeten dat bijvoorbeeld bij de Mona Lisa of ieder ander plaatje een deel van het gezicht staat er niet op. Dat wordt er gewoon bij gebluft.

40
00:06:44.184 --> 00:06:53.623
Ja, en best wel goed bij gebluft. Maar ja, als jij natuurlijk honderdduizend, één miljoen mensen hebt gezien, dan kan je wel denken nou, als die oorbel links zit, zit die oorbel waarschijnlijk ook rechts.

41
00:06:53.864 --> 00:07:04.284
Is die fase in real time Wytse? Niet real time, maar wel snel genoeg om hem mee te nemen op lage resolutie in zo'n videoverbinding. Ja, precies. Zo zwaar is het niet, nee.

42
00:07:04.484 --> 00:07:15.183
Ik zag ook een voorbeeld van wanneer krijgen we AI nurse? Wat is nurse in het Nederlands? Een verpleegster. Een verpleegster. Wanneer krijg ik. Verpleegkundige moet je zeggen. Verpleegkundige? Mooi inderdaad.

43
00:07:16.384 --> 00:07:27.864
AI verpleegkundige die dan bijvoorbeeld je hebt een lab uitslag en er gaat iemand gaat jou videobellen om je te vertellen over je lab uitslag. Hoe lang gaat het duren voordat een AI je dan belt?

44
00:07:28.184 --> 00:07:41.814
En dat kan met audio, maar het kan natuurlijk ook met video die die lab uitslag resultaten dan interpreteert, het in normale mensentaal vertaalt en dan een gesprek vervolgens met jou kan voeren, zodat als jij vragen stelt over is dit eigenlijk normaal, deze bloedwaarden?

45
00:07:41.844 --> 00:07:45.204
Of dat dat ding dan echt gaat echt gaat zeggen ja, dat is normaal.

46
00:07:45.264 --> 00:07:56.344
En er zat zelfs een voorbeeld in een demo die ik zag waarbij iemand een sarcastische opmerking maakt en dat die AI dan dat sarcasme registreert en dan dat daar op ingaat vervolgens.

47
00:07:56.384 --> 00:08:10.204
Nou, stel je dan voor dat die zuster of verpleegkundige, dat zeg je, zeg je juist, dat die dat je die visueel ook kan zien. En dat je dus kan videobellen met iemand die je bloedwaarden uitlegt. Dat dat is dat.

48
00:08:10.464 --> 00:08:20.604
Hoe lang gaat dat duren voordat we dat soort administratief werk gewoon over kunnen dragen aan AI? Ja, en ook de slechtnieuwsgesprekken, dat lijkt me helemaal fijn voor de doctoren en de.

49
00:08:20.644 --> 00:08:28.764
Die niet meer zelf te hoeven doen. Ja. Laat het maar door me doen. De AI neemt het nu even over. En dan weet je eigenlijk al dus dat het niet goed gaat komen. Ja, precies.

50
00:08:28.964 --> 00:08:34.124
Maar waarschijnlijk kan het ook zo zijn dat er gewoon een callcenter in een ander land achter zit waar gewoon masking wordt toegepast.

51
00:08:34.164 --> 00:08:39.484
Dus dat iemand gewoon in het Engels terug spreekt wat direct in het Nederlands vertaald wordt met een skin eroverheen van iemand anders.

52
00:08:40.014 --> 00:08:49.903
Ik bedoel, wij zitten nog, wij zitten in AI te denken, maar misschien om legale juridische redenen moet dat verhaal verteld worden door iemand met een bepaald diploma. Maar die mag wel in een lagelonenland zitten.

53
00:08:50.104 --> 00:08:52.243
Nou ja, ik noem maar wat. Ik zou het zou me niet verbazen.

54
00:08:52.624 --> 00:09:00.484
Ik zag ook zo'n filmpje deze week van, het is een beetje off topic, maar deze week van iemand die een hotel of een winkel binnenliep in New York en waar dan niemand achter de toonbank stond.

55
00:09:00.524 --> 00:09:10.304
Maar er was gewoon een beeldscherm met iemand in de Filipijnen erop die gewoon de transactie doet. Oh, dus die was op vakantie? Nee, dit is gewoon dan ingehuurd.

56
00:09:10.404 --> 00:09:19.843
Dus in plaats van dat ze dat je een lokale medewerker inhuurt, heb je dan iemand in een lagelonenland die dan in feite die transactie afhandelt in die winkel.

57
00:09:20.844 --> 00:09:28.284
Ja, ik heb ook wel eens een beeld gezien dat dat het ging over volgens mij schoonmaakrobots, maar dat zijn dan ook mensen die op afstand die robot besturen in hotels op afstand.

58
00:09:28.764 --> 00:09:38.524
Wat mij altijd nog denken van oh, we moeten even wachten tot die AI slim genoeg is. Maar dat kan natuurlijk allemaal gewoon afstand werk worden. Ja, het ultieme remote work. Ja, het is nou goed.

59
00:09:38.564 --> 00:09:45.993
Ja, we zijn in ieder geval weer een stap verder in het nog synthetischer maken van de wereld. Het lijkt me ook weer allemaal negatieve gevolgen waar we allemaal over kunnen nadenken.

60
00:09:45.993 --> 00:09:52.524
Dat het allemaal gewoon een stuk nepper wordt allemaal. Aan die paper werkt en je laat dat dan bijvoorbeeld thuis zien of aan vrienden of zo van hoe gaat het op je werk?

61
00:09:52.584 --> 00:10:02.574
Nou, we hebben nou een paper uitgebracht en dan kijk de Mona Lisa leeft of zo. Dat dan ook mensen eens vragen waarom? Waarom maak je dit eigenlijk? Behalve de coolness factor of zo?

62
00:10:03.124 --> 00:10:14.784
Ik Ik kan wel verzinnen dat je misschien zegt nou, er is bijvoorbeeld traumatherapie of rouwtherapie met overleden mensen en dat je dan een soort van kan toch een gesprek kan voeren om iets bij te leggen met iemand die niet meer is.

63
00:10:14.794 --> 00:10:22.144
Ik bedoel, ik kan wel een lijstje maken van mooie toepassingen, hoor. Misschien dat zij dat lijstje ook in hun hoofd hebben, maar het blijft blijft voor mij vreemd iedere keer als ik die dingen bekijk.

64
00:10:22.224 --> 00:10:29.404
Wat jij ook zegt dat die videootje op zijn paginaatje denkt oké, dit is de volgende deepfake Tom Cruise of zo. En en dan zeg maar.

65
00:10:29.684 --> 00:10:41.243
Ja, ja, nou en ook je kan dus leuke toepassingen voor bedenken, maar ook vervelende toepassingen. En in dat kader stuitte ik deze week ook op een bericht in de Sunday Times. Daar was een cybersecurity expert.

66
00:10:41.604 --> 00:10:51.704
Die die, die zei die ging een vriend van hem die had een eigen bedrijf. Die ging hij helpen om te kijken hoe veilig dat bedrijf nou is en hoe makkelijk hij hem geld afhandig zou kunnen maken.

67
00:10:52.164 --> 00:11:03.944
En toen heeft hij die vriend met dat eigen bedrijf $ 250 afhandig gemaakt door de stem van zijn vriend te klonen en een voice message te sturen naar de financiële afdeling van zijn bedrijf.

68
00:11:04.244 --> 00:11:14.284
Met daarin de opmerking van hey, ik moet dit nog overmaken, dit moeten we nog daarin doen. Stuur het even naar dit account, maak het even daarna over. En zo gezegd, zo gedaan dus. Nou ja, het is nu zo makkelijk om

69
00:11:15.204 --> 00:11:22.064
om weer iemand op te lichten. En toen dacht ik echt mijn god, ik moet mijn moeder binnen gaan houden, want dit is kijk, nu krijgt ze een berichtje.

70
00:11:22.464 --> 00:11:32.984
Weet je wel op WhatsApp van hey, mijn nummer is veranderd man, maak even € 1.000 over. Ik zeg altijd tegen mijn moeder bel me altijd voordat je geld over gaat maken. Je moet me bellen. Je moet mijn stem horen.

71
00:11:33.584 --> 00:11:42.804
Nou, dat kan ik nu dus ook niet meer doen. Nou ja, sterker nog, ik heb controlevragen afgesproken hoor, met de familie thuis. Wat voor? Wat heb jij afgesproken? Ik ga het niet nu zeggen. Oh nee, dat is geheim. Ja.

72
00:11:42.844 --> 00:11:51.284
Nee, maar even serieus. Gewoon de tip. Ja, dat dat klinkt heel suf, maar als jij het gevoel hebt van misschien is het al wel eens een keer gebeurd met een nep berichtje op de app of zo. Er zit heel veel schaamte.

73
00:11:51.304 --> 00:12:00.244
De stichter is het raam uit, de ex ter is geplogen. Zoiets is het. Ja, het is wel heel dichtbij. Kan dit eruit? Nee. Nee, maar ik bedoel ik.

74
00:12:00.304 --> 00:12:08.644
Ik wou zeggen er wordt al best wel wat geld afhandig gemaakt met nep berichtjes. Nu gewoon tekst zeg maar. Daarom. Daar hebben we het met elkaar minder over omdat heel veel mensen zich daar ook voor schamen.

75
00:12:08.684 --> 00:12:11.764
Dus ik heb het idee dat dat meer gebeurt nog dan dat je hoort.

76
00:12:11.864 --> 00:12:19.584
Ik bedoel, daar hebben de banken waarschijnlijk wel cijfers van, maar onderling voelt het alsof dat alleen simpele of domme mensen gebeurt, terwijl het ja, het gebeurt in mijn omgeving ook. Ja.

77
00:12:19.864 --> 00:12:26.364
En ik heb zelf ook een aantal keer gehad dat ik dacht wow, nu moet ik echt heel goed opletten voordat ik doorklik, want het ziet er wel heel overtuigend uit allemaal.

78
00:12:26.424 --> 00:12:33.244
Zo'n nep KVK mail die net even te lekker is, ook qua headers en zo. Dat ik alles ging checken en zelfs nog toen bleek het niet te kloppen.

79
00:12:33.624 --> 00:12:42.556
Maar goed.In dat opzicht is het al een soort van goede digitale hygiëne of zo om het met elkaar eens over te hebben van joh, als er om geld gevraagd wordt, wat doen we dan? Ja.

80
00:12:42.616 --> 00:12:50.996
En ik heb dus in eerste instantie altijd gezegd bel me even. Maar daarbij is het nu al van oké, het gaat wel verder hoor, als het als dat gespoofd wordt. Maar dat kan in theorie nu wel ja.

81
00:12:51.276 --> 00:13:00.596
Één op de tien heeft al eens zo'n voice message gehad. Is er een onderzoek van die. Één op de tien mensen. Één op de tien mensen en robots? Nee. Ja, mensen. Nee, maar gewoon inwoners van welk land?

82
00:13:00.716 --> 00:13:09.656
Oh, het is een onderzoek van McAfee. Dat is die virus. Wel een beetje in hun voordeel dat het één op de tien is, want zij verkopen software om dit te voorkomen. Ja, dat dacht ik ook. Één op de twintig.

83
00:13:09.816 --> 00:13:18.016
Maar het is dit is wel een daadwerkelijk ding, want er wordt dus wel heel veel geld afhandig gemaakt. En als jij dan een beetje gaat dromen Wietse en dan een beetje een kwade droom. Gaan we echt niet doen.

84
00:13:18.076 --> 00:13:27.896
Wat zou je dan? Wat is wat ligt op de horizon? Wat mensen nu nog niet verwachten, maar wat? Wat technisch gewoon bijna daar is. Nou, ik kan het ook wel zeggen. Qua oplichting. Dat je gefacetimed wordt dus. Ja, precies.

85
00:13:27.936 --> 00:13:38.016
Ja, ja. Ja. Ja. Het videoding. Dat daadwerkelijk wat jij nu hebt afgesproken met je moeder. Op basis van je LinkedIn foto. Want dat is dus genoeg. Dat is precies wat jij net concludeert, want dat gaat echt ver.

86
00:13:38.416 --> 00:13:48.916
Met een achtergrondje. Ja. Met kidnappers achter je. [lacht] Ja. Nee, ik denk het echt. Het is echt wel belangrijk dat mensen hier op gaan letten, want dit wordt natuurlijk in toenemende mate wel een probleem.

87
00:13:49.436 --> 00:13:57.736
Ja, ik denk deze, deze gaat toch gebeuren. Dus nu is het nog een gezicht dat alleen maar beweegt en waarvan je dan kan zeggen nou, maar die, die is dan nog in een witte witte doos.

88
00:13:57.796 --> 00:14:09.816
Nou, daar zit, daar zit jij niet regelmatig zelf in, in zo'n witte doos. Dat is met fase één ziet dat er nog zo uit. Maar wanneer wordt de achtergrond daadwerkelijk gewoon Ridouan Taghi achter je?

89
00:14:09.956 --> 00:14:21.656
[lacht] Nee, maar ik denk in, in dat opzicht denk ik dus dat dan verwacht ik, maar ik zit er vaak naast met dit soort voorspellingen, dus het zal wel weer niet kloppen, maar dat er toch wel mensen gaan zijn die de vraag stellen en waarom kan dit?

90
00:14:22.416 --> 00:14:32.056
Snap je? Van waarom is dit ontwikkeld? Als ik natuurlijk, als iemand een videootje krijgt van een familielid wat fake is en dat en dat, dat je dan reageert en denkt maar waarom is deze app er?

91
00:14:32.126 --> 00:14:40.276
Mensen denken wat dan wat eerder in een app of zo. Maar ja, van meer de, de vraag van oké, leuk al die technologie, maar wat, wat is hier dan zo zin-- Waarom is dit ontwikkeld?

92
00:14:40.996 --> 00:14:49.556
Gewoon die vraag, die verwacht ik wel wat meer bij mensen als ze zien wat je er ook mee kan, wat gewoon niet relaxed is. Ja, maar ik heb het idee dat iedereen dit direct doet hoor.

93
00:14:49.576 --> 00:14:57.616
De, de negatieve, de negatieve kanten ervan belichten. Terwijl ik kan heel veel dingen bedenken waar, waardoor zo'n technologie vet is.

94
00:14:57.696 --> 00:15:10.596
Bijvoorbeeld het zorgen dat er minder administratief werk is voor, voor allerlei beroepen. Al die, al die telefoontjes die je de hele dag aan het verwerken bent met vragen over wanneer je kan en.

95
00:15:11.156 --> 00:15:19.276
Nee, maar ik bedoel moet daar voor iemands fysieke gelijkenis gesimuleerd worden? Of was audio dan genoeg? Dat bedoel ik. Ja, ik bedoel ik, ik, ik.

96
00:15:19.316 --> 00:15:32.336
Ik denk dat we naar een tijd toegaan waarin we emotie gaan toekennen hoor, aan, aan, aan AI. Zoals, ik zat gisteren een artikel te lezen die zeiden: ja, vroeger toen de typemachine kwam, waren mensen bang dat,

97
00:15:34.076 --> 00:15:44.676
ja, wat was het nou? Dat, dat daardoor mensen minder gesprekken gingen voeren, minder diepgaande gesprekken gingen voeren en dat het allemaal maar oppervlakkig was als je dan vervolgens gesprekken ging nalezen.

98
00:15:45.876 --> 00:15:59.816
Ik denk dat er een generatie aankomt die gewoon emotie toekent aan een, aan een, aan een AI. En ja. Ja, dat gaat. Ik, ik denk dat dat gaat gebeuren.

99
00:15:59.876 --> 00:16:07.116
En dan, dan is dit soort technologie is dan een opstapje daar naartoe. Ja, is dat slecht? Ik heb daar niet echt een oordeel over eerlijk gezegd.

100
00:16:07.176 --> 00:16:16.516
Nee, maar dat, dat ik bedoel of, of dat mensen daadwerkelijke relaties aan zullen gaan waar ze, waar ze intimiteit gaan voelen en liefde en vriendschap voor AI's, dat staat wat mij betreft buiten kijf.

101
00:16:16.556 --> 00:16:25.176
En daar ben ik ook helemaal niet tegen of zo. Ja. Ik denk dat we dat gewoon moeten laten gebeuren en kijken hoe het gaat. Ja. Dat dat een stukje eenzaamheid voor mensen opheft. Is dit daar dan toch noodzakelijk voor?

102
00:16:25.796 --> 00:16:31.796
Om, om dat visuele beeld te kunnen maken. Ja. Dat je het ook. Ja. Ja, maar dit is dan wel weer op basis van een bestaande foto.

103
00:16:31.876 --> 00:16:37.916
Ik vind het zo raar dat hun, de optimalisatie waar ze trots op zijn, is dat ze zo weinig data nodig hebben om jou te kopiëren. Ja.

104
00:16:38.056 --> 00:16:44.176
En daar zie ik, als ze nu zouden zeggen: moet je kijken hoe snel wij een virtueel mens kunnen maken die eigenlijk niet bestaat, denk ik vet. Ja.

105
00:16:44.416 --> 00:16:54.416
Maar, want ze, in hun voorbeelden zit ook dat ze volgens mij uit Sora, dat is die dame met de zonnebril op die door Tokio loopt volgens mij, dat ze die laten praten en doen, dacht ik: oh, dit is grappig, die mevrouw bestaat niet.

106
00:16:54.556 --> 00:17:02.926
Ja. Daar wordt dan iemand van gemaakt. Dat kan ik allemaal redelijk volgen. Maar één fotootje van Alexander en we hebben hem pratend. Denk ik ja, ik weet niet zo goed wat we daar nou mee moeten. Met Ridouan Taghi.

107
00:17:02.926 --> 00:17:11.386
Dat kunnen ze natuurlijk ook met gezichten die niet bestaan lijkt me dan. Dan ga je gewoon even. Ja, dat doen ze ook als voorbeeld. Ja precies, dan pak je hem daar. Is not AI of is AI. That's an exist. That's an exist.

108
00:17:11.436 --> 00:17:21.796
Ja. Ja. Nee. Precies. Nou ja, goed. Het, ik denk dat we er wel weer genoeg over hebben gepraat, want de tijd vliegt. Wat ik nog meer las over Mistral deze keer. We hebben natuurlijk de grote

109
00:17:22.716 --> 00:17:34.356
OpenAI en, en Tropic en Google en er gaat allemaal superveel geld naartoe. En die hebben hele diepe zakken vooral. Maar wij hebben Mistral. En met wij bedoel je Europa. Wij bedoel ik Europa inderdaad.

110
00:17:34.396 --> 00:17:44.116
Ons eigen taalmodel. En zo wordt het volgens mij ook een beetje gezien. Een beetje de Europese hoop. Ik vraag me dan af waarom is dat überhaupt eigenlijk belangrijk? Maar ik zal eerst even zeggen wat ik dus las.

111
00:17:44.156 --> 00:17:55.936
Dat er nou allemaal gesprekken worden gevoerd met investeerders. Ze gaan 500 miljoen aan kapitaal ophalen. De, de, de waarde, de waardering zou staan op 5 miljard. Mhmm. Dus nou, het gaat in ieder geval over veel geld.

112
00:17:56.036 --> 00:18:05.596
Dat weten we dan. Maar wat zegt dat eigenlijk dan nog meer? Mhmm. Over Mistral? Wat, wat, hoe moet ik deze inschalen? Ja, nou de, de vraag die je hebt over Europa is terwijl ik denk dat het goed is.

113
00:18:06.176 --> 00:18:14.216
Sowieso spel theoretisch. Om het even duur te zeggen is het gewoon fijn als je meerdere spelers hebt in een spel en niet één of twee. Dat is waar al die anti monopolie wetgeving voor is.

114
00:18:14.636 --> 00:18:21.776
Zodat je een beetje leuk speelveld houdt, zodat iedereen elkaar een beetje in de gaten houdt en een beetje onder druk zet. En dat we een soort gezonde in een markt concurrentie hebben.

115
00:18:21.786 --> 00:18:27.736
Maar je kan het ook zeggen met tussen universiteiten concur-- Je kan op allerlei manieren en meerdere podcasts over AI is allemaal prima.

116
00:18:27.756 --> 00:18:34.016
Het houdt ons een beetje fris en hebben we nog iets om naar op te kijken of van te stelen of te zeggen dat ze van ons stelen. Prima.

117
00:18:34.816 --> 00:18:45.336
Dus je wil sowieso een spelletje met wel genoeg spelers hebben om het een beetje gezond te houden. Ja. Dus een wereldwijd spel tussen verschillende grote AI groepen die modellen uitbrengen vind ik helemaal te gek.

118
00:18:46.256 --> 00:18:49.656
Mistral doet dat binnen Europa, daar zijn, daar is nou eenmaal andere wetgeving.

119
00:18:49.796 --> 00:18:59.396
Dus als het hun lukt binnen Europa betekent dat als het goed is, ga ik dan vanuit, dat ze dat binnen een raamwerk doen van wat wij belangrijk vinden qua privacy. Met wij bedoel ik iedereen die dat onderschrijft.

120
00:18:59.816 --> 00:19:12.584
EhmEn ik denk dus ik denk dat, uh, net als met al, al al dat soort markten, dat het gewoon fijn is om, uh, geopolitiek ook, dat je met elkaar een beetje, uh, elkaar in de gaten kan houden en een beetje onder druk kan zetten.

121
00:19:12.624 --> 00:19:13.464
Maken ze een kans?

122
00:19:14.084 --> 00:19:28.924
Nou ja, dat, dat, dan lopen we al een beetje vooruit op het Llama drie onderwerp, maar door Llama drie wat minder, want dat is gewoon zo'n ontzettend model wat nu gelanceerd is, dat- Llama drie is een open source taalmodel van- Open source met een, uh, met een wildcard, maar dat zal ik zo even zeggen waarom.

123
00:19:29.024 --> 00:19:37.064
Uh, maar van de firma Meta en die concurreert dus direct met Mistral en, uh, Meta heeft iets meer geld, dus dat is, uh- Ja. Dat is een ding voor Mistral.

124
00:19:37.524 --> 00:19:45.724
Ja, het kan dus zo zijn dat, dat een partij als, uh, Mistral wel, uh, overlevingskans heeft omdat het zegt: oké, wij zijn.

125
00:19:45.784 --> 00:19:50.264
En omdat ze heel erg gaan leunen op dat wij doen het in een Europees datacenter binnen de Europese wetgeving.

126
00:19:50.284 --> 00:19:58.564
Die data gaat nooit Europa uit en daardoor worden zij een soort van de, uh, gekozen, uh, taalmodel leider binnen Europa. Ja, ja. Dus daar hebben ze prima.

127
00:19:58.584 --> 00:20:02.864
Dan heb je nog steeds een concurrentiepositie, ook al ben je misschien niet de snelste of de slimste of de beste.

128
00:20:03.524 --> 00:20:13.824
Uhm, maar in de, in, ze waren nu een tijdje, want we zitten nu in een soort begin cowboy wedstrijd van al die modellen. Het is nog heel, het is nog heel vroeg. Ja. Nog steeds, denk ik, want er kan nog van alles gebeuren.

129
00:20:14.444 --> 00:20:25.984
Uh, staan ze er nu op dit moment niet zo heel best voor denk ik sinds wat Meta, uh, deze week of, ja recent- En, uh, en ze hadden vrij recent nog een, uh, een model gereleased, hè. Ja.

130
00:20:26.144 --> 00:20:37.244
En dat doen ze trouwens wel op een hele leuke manier is mij opgevallen. Namelijk gewoon met een, een linkje. Ja, het is een magnet link. Op twit-op Twitter. Het is een BitTorrent magnet link. Een BitTorrent magnet link.

131
00:20:37.424 --> 00:20:45.644
[lacht] Ja. Dat was het inderdaad. En daarmee, daarmee- Je bedoelt zonder context? Ja. Slingeren ze gewoon een soort zip- Voordat de blog geschreven is. Ja.

132
00:20:45.944 --> 00:20:54.584
Kijk, kijk heel even hoe Google iets aankondigt of hoe Netflix iets aankondigt en hoe, hoe leuk en, uh- Nerds worden hier heel gelukkig van. Ja, ik vond het ook wel- Het is wel een soort flex.

133
00:20:54.624 --> 00:21:03.604
Ja, het is een soort van boem, hier is ie. We gaan later wel zeggen wat erin zit. Succes! Veel plezier! Ja. Wel cool. Ja. Maar ja, goed. Ga je het daarmee halen? Nou, het is misschien een beetje ondergesneeuwd nu.

134
00:21:03.644 --> 00:21:14.104
Als je me dit vorige week had gevraagd, dan was ik misschien anders, had ik, had ik zeker weten anders geantwoord. Want dat model wat ze hebben gelanceerd is tof. Het is, uh, uhm, een, een, een vrij groot model.

135
00:21:14.204 --> 00:21:17.984
Tweëndwintig miljard parameters volgens mij uit mijn hoofd. Uh, gemixte experts.

136
00:21:18.064 --> 00:21:27.284
Dus het houdt in dat alleen het deel wat nodig is van het model in geheugen geladen wordt, waardoor je op wat goedkopere hardware kan draaien. Goede truc is dat, en het presteert een beetje zo GPT drie en half.

137
00:21:27.324 --> 00:21:37.264
We zitten toch nog altijd te vergelijken met wat de meeste mensen kennen. Dus de gratis chat GPT versie kan je dan draaien bij een ander of op een hele dure computer thuis. En dat is krachtig en belangrijk.

138
00:21:37.444 --> 00:21:46.304
Maar goed, dat is dus nu een beetje anders, uh. Vorig jaar, vorig, uh, vorige week was je enthousiast geweest. Toen stond hij op de lijst, maar toen is hij afgevallen wegens gebrek aan tijd. Ja. Raad eens hoe dat kwam?

139
00:21:46.924 --> 00:21:52.964
[lacht] En dan hebben we natuurlijk ook altijd nog het nieuws. Onder de tafel geschopt. Keihard van de toren geflikkerd.

140
00:21:53.024 --> 00:21:57.664
Nee, nee, maar het is helder Wytse en ik ben heel benieuwd wat je straks over Llama drie allemaal te zeggen hebt.

141
00:21:58.104 --> 00:22:07.293
Maar voordat we daaraan kunnen beginnen, moeten we het eerst nog even hebben over, uh, ja, jouw linkjes dump. En, uh, dan ga ik er even op knik, uh, klikken nu. [lacht] Ik ben zelf benieuwd.

142
00:22:07.293 --> 00:22:11.284
En ik ben eigenlijk al bang, want er staat GitHub en als er iets is wat ik niet begrijp, dan is het GitHub.

143
00:22:12.104 --> 00:22:23.144
[lacht] Ik ga gewoon eer-, die GitHub is de plek waar Microsoft, want GitHub is van Microsoft, uh, een groot deel van de open source ontwikkelaars samen laat komen, uh, om daar hun de broncode van hun software te delen.

144
00:22:23.244 --> 00:22:31.573
Ja, het ziet er, uh, een beetje uit als, uh, een soort Dropbox met allemaal onleesbare tekst. Ja, het is eigenlijk een commu-community voor ontwikkelaars. Het is waar mensen in werken die aan software werken.

145
00:22:31.604 --> 00:22:40.184
Het kan ook in privé zijn. Dus jouw hele bedrijf staat hier, maar daar kan alleen werknemers bij. Oké. Dan heb je een gesloten GitHub. Ja, ja, oké. Dit is een open. Oké, maar is dit het onderwerp?

146
00:22:40.244 --> 00:22:51.264
De, de, de link en GitHub of? Nee. Open GPU kernel modules. Ja, het is een open. Ik ben ook, hè, ik word er helemaal warm van als ik het zo zie. En via Linux open GPU met twee per peer to peer support.

147
00:22:51.604 --> 00:23:00.884
Dit is de GitHub van. Nice toch? Is dit een goede link of niet? Ja. Ja, ik denk iedereen hangt aan je lippen, Wytse. Kom maar. Dit gaat ergens naartoe.

148
00:23:00.984 --> 00:23:14.444
Dit is de GitHub pagina van Tiny Corp van, uh, oprichter is George Hotz, bekend van de eerste iPhone hack, PlayStation drie hack, daarna, uh, Comma AI voor zelfrijdende auto's en nu Tiny Corp, uh, een- Dit is één gast.

149
00:23:14.724 --> 00:23:25.684
Één. En dit is gewoon een soort van wizard. Een, een, een prog-programmeur wizard die iedereen boos weet te maken. Een extravagant figuur. En die vond het ook heel leuk dat Sony hem ging aanklagen.

150
00:23:25.724 --> 00:23:32.944
Ook al werd het op een gegeven moment best een serieus verhaal destijds, heeft hij nog best wel goed weggekomen ook. Hij heeft ook een tijdje bij Apple gewerkt. Het is echt zo'n, zo'n mannetje is het wel.

151
00:23:33.504 --> 00:23:43.894
Uhm, uh, daar in een latere aflevering meer over. Tiny Corp, uhm, is een tiny box aan het bouwen. Dat is eigenlijk een doos die je thuis neer kan zetten om daar je eigen taalmodel op te draaien.

152
00:23:43.924 --> 00:23:49.724
Het idee is dan dat je die doos bestelt voor volgens mij vijfduizend dollar is het bedrag wat ze proberen. Met een doos bedoel jij een computer?

153
00:23:49.764 --> 00:23:56.904
Ja, er zit een stekker aan, die doe je in het stopcontact en dan kan je er tegen praten alsof je je eigen ChatGPT in huis hebt. Uh, en dat heeft allerlei voordelen.

154
00:23:57.464 --> 00:24:01.804
Uhm, maar om dat te kunnen draaien moet je echt een serieuze doos bouwen.

155
00:24:02.144 --> 00:24:13.044
En bij Tiny Corp zijn ze natuurlijk aan het kijken: hoe kunnen we nou zo'n computer bouwen waarop je een eigen taalmodel kan draaien, maar dat op een manier dat het binnen dat budget van die vijfduizend dollar wat een beetje het idee is, blijft.

156
00:24:13.064 --> 00:24:23.644
Nou, Nvidia, waarvan de aandelen nu zo hoog staan, niet meer kopen, het is te laat. Die, uh, brengen GPU's uit, grafische kaarten en voor de thuismarkt. Dat zijn ook dure kaarten.

157
00:24:23.684 --> 00:24:33.604
De 4090 waar het in deze GitHub over gaat is een kaart van vijftien, zestienhonderd euro voor één, uh, grafische kaart. Ja. Daar kan je heel veel PlayStations van kopen, maar die maken ook datacenter kaarten.

158
00:24:33.664 --> 00:24:43.544
Dat is, die hangen bij Mistral en, uh, noem alle partijen maar op. Dat zijn kaarten van vijftienduizend euro. Het verschil tussen die kaarten is eigenlijk stiekem niet zo heel erg groot. Het zijn niet dezelfde kaarten.

159
00:24:43.564 --> 00:24:50.684
Dat wordt ook wel eens geroepen, maar ze zijn ook niet zo heel erg verschillend. Uhm. Oké, ondanks dat er een nul achter staat op het prijskaartje.

160
00:24:50.884 --> 00:25:00.404
Ja, en dat, dus er zit op die datacenter kaarten meer ga, meer garantie, meer geheugen. Die zijn helemaal toegespitst om te draaien binnen zo'n, uh, uh, datacenter.

161
00:25:01.044 --> 00:25:11.404
Maar er is een chipfabriek, daar komen gewoon chips uit en die chips zitten aardig bij elkaar in de buurt. Oké. Dus waar is het Nvidia om te doen?Niet dat mensen die kaarten voor thuis gaan gebruiken in een datacenter.

162
00:25:11.624 --> 00:25:13.404
Dat mag ook niet. Er zijn allemaal regels over.

163
00:25:13.444 --> 00:25:22.564
Als jij een bedrijf bent en je koopt Nvidia-kaarten die eigenlijk bedoeld zijn voor de consumentenmarkt om op te gamen en die ga jij opstapelen in een datacenter dan, dan komen ze je halen. Waarom?

164
00:25:23.024 --> 00:25:33.944
Nou, omdat ze dan geld verliezen. Want jij hebt dan eigenlijk iets van € 1.500 ingezet wat ze eigenlijk voor € 15.000 aan je willen verkopen. Aha. Ja, en uh. Daar wordt, typen als George Hotz wordt daar boos van.

165
00:25:33.984 --> 00:25:44.044
Ja, die heb je dan meteen aan. Want die denkt dan: ja, maar dit is, dit is niet dezelfde kaart, maar ook weer niet zo heel verschillend. Dus die wil dan heel graag eigenlijk, uh, die kaarten gaan gebruiken voor thuis.

166
00:25:44.304 --> 00:25:54.164
Ja. Voor thuis. Voor thuis, voor thuis, zoals het bedoeld is, maar dan wel, uh, functionaliteiten gebruiken die eigenlijk alleen maar, uh, gebruikt mogen worden op die datacenterkaarten. Het is een vorm van chiptunen.

167
00:25:54.204 --> 00:26:03.144
Bij auto's heb je dat ook, zeker met, met EV's. Heel veel elektrische auto's zijn eigenlijk op software gelockt. Kan je zelfs een upgrade kopen via het internet, gaat je auto ineens langer mee of zo.

168
00:26:03.164 --> 00:26:12.844
Dat voelt supergek toch? Ja. Want niemand komt bij jou thuis wat brengen. Iemand zet een knopje om, je zet een checkboxje aan en voor € 2.000 extra mag je je stoelverwarming gebruiken. Dat is ontzettend raar.

169
00:26:12.944 --> 00:26:20.384
Goed, kan ik uren over praten. Soft locks zijn dat, dus dat zijn in software bepaalde features die eigenlijk in jouw auto zitten, maar je mag gebruiken pas als je iets betaalt.

170
00:26:20.424 --> 00:26:28.244
Een soort van ontgrendelen als je naar een nieuw niveau gaat. Een nieuw level. Ja. In een videogame. Ja. En dan heb je nieuwe powers. Alle hardware zit er al in. Ja. Je gebruikt het alleen.

171
00:26:28.564 --> 00:26:37.504
En dat is in, dat is gigantisch frustrerend. En voor jongens zoals George Hotz, een, een hacker, cracker, hoe je hem wil noemen. Anarchist misschien. Ja, een beetje. Die zit zo: ja, dat gaan we natuurlijk niet doen.

172
00:26:37.624 --> 00:26:40.544
Nou, nu heeft hij iets kleins gedaan. Dat heeft hij gepost op deze.

173
00:26:40.984 --> 00:26:49.784
En met hem bedoel ik, er is gewoon een team van mensen, hoor, uh, uh, die, uh, hem allemaal interessant vinden om een beetje om, met hem samen Tinycore doen. Wat hebben zij voor elkaar gekregen?

174
00:26:50.264 --> 00:26:58.264
Wanneer jij een taalmodel wil laden op jouw computer is dat een gigantisch ding om in te laden. Daar moet je heel veel geheugen voor hebben. Want je, meer dan op een kaart zit.

175
00:26:58.604 --> 00:27:06.684
Dus je moet meerdere kaarten in één machine stoppen. En eigenlijk al die, al dat geheugen combineren tot één metakaart, zeg maar. Alsof je één kaart hebt die stiekem bestaat uit vier.

176
00:27:07.164 --> 00:27:16.913
Nou, maar dat heeft Nvidia voor de datacenters bedacht. Als jij vier kaarten hebt van 24 gigabyte, dan, uh, mag je die opstapelen en dan wordt die gezien door het besturingssysteem als één.

177
00:27:17.024 --> 00:27:21.804
En als je dan een taalmodel inlaadt, wordt hij er gewoon in één keer ingeladen. Helemaal transparant, hoef je niks aan te doen.

178
00:27:21.844 --> 00:27:30.704
Dat mag niet met die thuiskaarten, want de enige manier dat je, reden dat je dat zou willen doen thuis, is dat jij iets aan het doen bent waar je eigenlijk iets voor moet betalen voor het datacenter. Wat kan je doen?

179
00:27:30.764 --> 00:27:39.584
Als je deze GitHub-link volgt kan je iets installeren en kan jij je thuiskaarten gebruiken alsof het datacenterkaarten zijn en gewoon je model inladen. Aha. Op een kaart met een tiende van de prijs.

180
00:27:40.024 --> 00:27:50.174
Waarom hebben ze dit uitgebracht? Voor hun eigen tiny box waar straks vier volgens mij of zes van die kaarten ingestopt gaan worden of zo. Uh, ja, dat klopt niet qua prijs, maar meer dan twee. [gniffelt] Aha.

181
00:27:50.174 --> 00:27:53.144
Aha, dus hij is weer ruzie aan het maken, deze George.

182
00:27:53.184 --> 00:28:01.684
Nou, hij is het wel een beetje aan het opzoeken en het is allemaal nog een beetje grijs gebied van, ja, er zijn gewoon, er is een licentieoverko, uh, overeenkomst die jij impliciet tekent wanneer je zo'n kaart gebruikt.

183
00:28:01.994 --> 00:28:07.464
Er zit een driver bij, dan moet je ook op acknowledge drukken als je installeert. Hiermee breek jij iets open wat je eigenlijk niet helemaal mag doen.

184
00:28:07.524 --> 00:28:20.744
Ja, en het doel hiervan dus is zodat je thuis je eigen, uh, taalmodel kan draaien. Lokaal. Het gaat niet het internet op, dus je kan alle, alle crazy vragen stellen die je wil. Ja. En ook zonder dat er regels zijn.

185
00:28:21.064 --> 00:28:31.364
Ja, of misschien. Dus als jij een bank wil overvallen en je wil tip van een taalmodel, dan ga je die, dan ga je die tip krijgen. Dit is alleen maar positief. Oh ja, precies. Ja. Dit wel. Ja, ik snap hoe dit gaat nu. Oké.

186
00:28:31.424 --> 00:28:43.424
Nou, gaaf. Ja, ik, uh, ik, ik sta er ook versteld van. [lacht] Als jij iemand bent die thuis. Leuk voor je. [lacht] Die thuis kaarten aan het verzamelen is. Ja. Dan kun je dat aan elkaar koppelen.

187
00:28:43.454 --> 00:28:54.264
Hé, ik, de luisteraar kan, gaat niet ophouden om hierover te praten met vrienden. Peer to peer support voor, voor die GPU-kaart van Nvidia. Wauw! P2P. Ja. Yeah. Uh, Bolt AI staat er ook nog bij.

188
00:28:54.404 --> 00:29:03.284
Wietse had vorige keer, had hij het over po.com. Ja. Als je dat herinnert. Zeker. Blendle. De Blendle voor taalmodellen. Voor twintig, wat is het? Twintig dollar.

189
00:29:03.344 --> 00:29:08.564
Nee, ik heb laatst, iemand zei tegen mij: ik wil dat je stopt met dat bedrag noemen, want dat is ex btw. En niet iedereen heeft een bedrijf.

190
00:29:08.704 --> 00:29:17.124
Hintje zie je btw in het geval van ChatGPT is het volgens mij 22 en in het geval van po.com is het € 24. Oké, belangrijk. Het is maar gezegd. Ja.

191
00:29:17.224 --> 00:29:30.724
Uh, € 24 per maand waarbij je dus én Claude krijgt én GPT-4 krijgt en nog een aantal andere. Gemini. Gemini. Nog een aantal andere taalmodellen. Uhm. Mistral. Dat is dus best wel handig.

192
00:29:30.764 --> 00:29:40.424
Daar hebben we het vorige week over gehad. Ben het gaan gebruiken. Ben ik wel fan van. Maar er is ook nu een ander appje wat ik ontdekt, wat een beetje in dezelfde lijn ligt. Dat is Bolt AI.

193
00:29:40.464 --> 00:29:51.384
Dit is alleen maar boeiend voor Mac-gebruikers, dus mijn excuses voor mensen die geen Mac hebben, maar dat is een app waarmee je, uhm, niet een vast bedrag per maand betaalt, maar je betaalt voor de API-toegang.

194
00:29:51.424 --> 00:30:01.084
Bij al die taalmodellen kun je niet alleen betalen, uh, met een vast abonnementsprijs per maand, maar kun je ook per gebruik betalen. Elke keer als je een berichtje st- berichtje stuurt, dan pas betaal je.

195
00:30:01.604 --> 00:30:12.024
En in de praktijk is dat vaak veel goedkoper om dat te gebruiken, uhm, omdat je dan alleen maar betaalt voor wat je gebruikt. Uhm, en daarnaast is deze app Mac native. Hij is mooi vormgegeven. Vind ik ook belangrijk.

196
00:30:12.364 --> 00:30:24.204
En drie: er zitten allemaal functionaliteiten in voor, uhm, prompt libraries. Dus bijvoorbeeld als ik een tekst, uh, heb ge-, als ik een tekstje moet schrijven, weet ik veel. Een artikel of wat dan ook. Ja.

197
00:30:24.444 --> 00:30:35.424
Dan heb ik de neiging om eerst een beetje stream of consciousness te praten tegen zo'n AI met Whisper. Dus dan transcribeert ie mijn vagige geouwehoer. Dan heb ik een prompt die inmiddels vrij lang is.

198
00:30:35.464 --> 00:30:45.363
Die probeert mijn schrijfstijl te vatten of zoals ik mijn schrijfstijl graag zou willen zien in ieder geval. Uh, en die, uh, maakt dan een soort van Alexander Klöpping-versie van dat

199
00:30:46.364 --> 00:30:58.724
gebrabbel wat da, wat onsamenhangend is van daarvoor. En, uh, dit is dan met één druk op de knop kan ik dan een tekst die gebrabbel is omzetten in die prompt die, die dus opgeslagen heeft. Waardoor ik die kan gebruiken.

200
00:30:58.744 --> 00:31:03.744
En niet alleen in deze app zelf. Ja. Maar ook bijvoorbeeld in andere, in andere apps.

201
00:31:03.784 --> 00:31:17.544
Het is dus, door het hele OS kun je dan gewoon typen slash slash, uh, nu als Alexander schrijven en dan schrijft hij gewoon waar je dan ook zit in mail of in, uh, in WordPress of waar je dan ook aan het schrijven bent, uh, gebruikt ie zeg maar ChatGPT.

202
00:31:17.704 --> 00:31:25.744
Zowat, waardoor je niet meer heen en weer hoeft te schakelen tussen verschillende apps. Ja. Dit, ik vond dit nog wel, ook wel een tip. En wat er ook in zit, Wietse. Is Knok met een Q.

203
00:31:26.144 --> 00:31:41.520
Llama 3.Op grok met een Q Op grok met een Q. Ja, Wat is grok met een Q eigenlijk? [lacht] Llama drie op grok met een Q, punt. Volgende onderwerp. Nou, daar komen we nog. Bij deze. Oké, ik ga. Ik zal het even uitleggen.

204
00:31:41.580 --> 00:31:51.960
Die zou zeggen deze app tip is, is wel echt goed, want ik, uh, wat ik dus nu merk toen ik, want ik heb deze hele week dan met po.com zitten werken en ik ben helemaal om. Ik denk ineens waarom heb ik nooit zo gewerkt?

205
00:31:52.460 --> 00:31:57.560
Uh, want wat je daar ook kan doen is: je zit midden in een gesprek met ChatGPT en je merkt dit gesprek gaat echt nergens naartoe.

206
00:31:57.600 --> 00:32:05.320
Dit werkt niet en dan zeg je gewoon: switch even naar Claude en dan ga je gewoon verder met Claude. Wel echt vet. En wat ik. En dan hoef je niet te herhalen of. Nee hoor, geen probleem. We gaan gewoon met Claude verder.

207
00:32:05.780 --> 00:32:15.620
En wat ik nu nog wil is, vraag het even aan Claude, dan kan ik gewoon. Kijk, ik wil gewoon. Ik wil nu gewoon een groepssessie. Toch? We gaan gewoon met al die modellen tegelijk praten. Supervet! En grok met een Q.

208
00:32:15.780 --> 00:32:23.240
Want dat vroeg je net eigenlijk. Ja. Grok, die bouwt TPU's. Dat zijn chips speciaal gemaakt om precies de instructies uit te voeren die zo'n taalmodel nodig heeft.

209
00:32:23.300 --> 00:32:33.560
Dus niet de GPU's, die dure apparaten van George Hotz, maar chips die echt niks kunnen behalve dat, dus heel efficiënt zijn. Wat kan je dan? Als je een vraag stelt, krijg je veel sneller antwoord. Daar komt het op neer.

210
00:32:34.180 --> 00:32:44.240
Uh, als je dan Llama drie inlaadt op grok, grok.com is een website, kan je account aanmaken. Die demoën daar eigenlijk hun chips. Wat zij willen is die chips verkopen aan bedrijven van: wil jij dat?

211
00:32:44.280 --> 00:32:52.160
Je kan toepassing hebben van AI waarin de snelheid dat het antwoord komt, de eerste, de eerste zin plus alle zinnen daarna cruciaal is.

212
00:32:52.600 --> 00:33:03.280
Bijvoorbeeld een telefoondienst die je wil nadoen met, uh, audio, hè, dan is er latency. Dus dat is een beetje waar grok erg geschikt voor is. Als ik ermee, als ik het gebruik, dan merk ik ook ineens: o, wat grappig.

213
00:33:03.320 --> 00:33:13.300
Ik was echt zo gewend aan hoe traag eigenlijk ChatGPT4 is. Ja. Want dit komt er echt. Ja, er komen gewoon A4'tjes uit per seconde. Als je grok gebruikt gaat het mega snel. Mega snel.

214
00:33:13.820 --> 00:33:25.140
Maar ik dacht wel daarbij zeggende, en Llama drie komen we zo op. Die draait dus nu ook op grok. Uh. [gniffelt] Ja, het komt dadelijk allemaal bij elkaar. En grok zit ook in. Ik ben geduldig. Bull, bu-bullet? Wait.

215
00:33:25.180 --> 00:33:30.520
In Bolt. Bolt. Grok zit erin ja. Ja, in die Mac app. Dan kan je dus ook lekker, uh, wisselen daartussen. Ja.

216
00:33:30.660 --> 00:33:39.480
Uhm, wat ik nog wel wil zeggen is dat ik ook merkte dat, er zaten dus bij daar tokens per seconde, dus dat, dat, dat flexen ze dan naar je van zevenhonderd tokens per seconde.

217
00:33:39.530 --> 00:33:49.840
Dat is hoeveel stukjes tekst er per seconde op jouw beeld gezet worden. Dat ik dacht: ja, bij tweehonderd is het voor mij eigenlijk wel genoeg. Ik ben een mens, hè. Je moet het nog lezen. Ja. [lacht] Sorry man.

218
00:33:50.120 --> 00:34:00.400
Dus ik merkte wel dat ik dacht: oké, jullie chip is cool omdat je heel veel gebruikers tegelijk iets kan vertellen, hè, want je kan natuurlijk door die snelheid, maar alleen naar mij toe dacht ik echt: ja, dat er een A4'tje in één keer in beeld staat.

219
00:34:00.560 --> 00:34:09.200
Ja, vooralsnog zit ik wel regelmatig, dan zit ChatGPT te typen en dan ga ik maar wat anders doen ondertussen. Ja, ik wacht ook tot ie uitgeprint is. Het is heel irritant, dus ik, ik ben wel echt ik.

220
00:34:09.240 --> 00:34:19.300
Ik ben heel blij dat hier ontwikkeling in is. Ja. Ja. En we hebben het dus niet over de grok van X.AI, wat de, het bedrijf van Elon Musk is, zijn eigen model, dat heet ook Grok, maar dat is met een K. Dat is met een K.

221
00:34:19.980 --> 00:34:28.720
Een verschil moet er wezen. Ja, dat wisten ze ook niet van elkaar. [schraapt keel] Nee, dan hadden ze het wel anders gedaan, denk ik. Straks gaan we het probleem van Hannah Prins techno fixen.

222
00:34:28.740 --> 00:34:39.580
Dan weten jullie natuurlijk over wie ik het heb. De klimaatactiviste en ook, uh, schrijver van, uh, een boek tegenwoordig. Uh, maar eerst gaan we het dus hebben over, ja, we hebben er al vaak naar verwezen: Llama drie.

223
00:34:39.780 --> 00:34:50.420
En dat ik het er nu maar drie minuten over heb. [lacht] Taalmodel van, van, van Meta. Ik ben heel benieuwd, Wietse. Ja, het is wel een dingetje. Uh, ik heb, uh, even geluisterd wat Mark Zuckerberg erover te zeggen had.

224
00:34:50.660 --> 00:34:58.140
Willen jullie het horen? Heel graag. "The bottom line is that we believe that Meta AI is now the most intelligent AI assistant that you can freely use.

225
00:34:58.449 --> 00:35:07.980
To make Meta AI even smarter, we've also integrated real time knowledge from Google and Bing right into the answers. We're also releasing a bunch of unique creation features.

226
00:35:08.460 --> 00:35:18.440
Meta AI now creates animations and it now creates high quality images so fast that it actually generates en updates the images for you in real time as you are typing.

227
00:35:18.760 --> 00:35:25.340
So today we're open sourcing the first set of our Llama3 models at eight billion and seventy billion parameters.

228
00:35:25.380 --> 00:35:37.200
They have best in class performance for their scale, and we've also got a lot more releases coming soon that are going to bring multimodality and bigger context windows." Ja, wij horen hier een trotse vader. [lacht] Ja.

229
00:35:37.280 --> 00:35:45.220
Uh, ja, z'n metaverse is hem niet helemaal geworden. Maar nu, dit wordt hem wel. Dat bedoel ik niet cynisch. Hij, hij moest even overstappen, maar ik denk dat hij succesvol gepivoted is naar AI.

230
00:35:45.359 --> 00:35:53.950
Ja, want iedereen vindt het waanzinnig toch? Wat, wat er is afgeleverd. Nou, het is indrukwekkend, dat wel. Maar er zit, ik bedoel, de Het ging deze week nergens anders over. Nee, het is gewoon.

231
00:35:53.950 --> 00:36:00.820
Het is gewoon het AI-nieuws van deze week. Nee, maar of, of. Ik bedoel, en iedereen is onder de indruk. Maar dat, dat is een beetje nu mijn grapje geworden bij Pokkie.

232
00:36:00.880 --> 00:36:09.260
Onder de indruk betekent niet meteen dat ik het leuk vind. Nee. Maar ik ben. En iedereen is ook weer vooral onder de indruk van wat nog komen gaat, hè. Dus even als ik het, het goed, uh, begrijp.

233
00:36:09.400 --> 00:36:18.430
De dataset is zeven keer zo groot als bij Llama twee en vier keer zoveel code in de data. Wat zegt dat? Nou, zeg, dat is. Wat we nu hebben dus, hè.

234
00:36:18.440 --> 00:36:27.320
Nou, wat er, wat er eigenlijk gevonden is, als in dat is echt wel een beetje een vondst binnen de wereld van taalmodellen, is dat het dus zin heeft om een taalmodel te blijven trainen. Veel langer.

235
00:36:27.820 --> 00:36:36.360
Dat je zo'n trainingssessie gewoon maar laat doorlopen en de hele tijd nieuwe data erin gooit. Uh, dat dat dus nog steeds een beter model oplevert, ook al blijft het model dezelfde grootte.

236
00:36:36.480 --> 00:36:43.860
Dat klinkt misschien suf dat je denkt als je er data ingooit wordt hij toch steeds groter? Maar in essentie is het een lerend iets. Dus. Ik begrijp niet wat jij nu zegt. Nou,

237
00:36:44.860 --> 00:36:52.640
het is gebleken, die taalmodellen hebben allemaal bepaalde groottes. Ik weet niet zo goed waar die nu vandaan komen. Maar de grootte is het corpus waarop het getraind is, toch? Gewoon.

238
00:36:52.720 --> 00:36:58.720
Nee, dat bedoel ik dus niet precies. O. Dat is het interessante. Nee, je hebt dus de grootte van je dataset waar je mee traint.

239
00:36:58.920 --> 00:37:04.240
Dan heb je ook nog de kwaliteit van die dataset, want je kan heel veel troep hebben of heel weinig goede, uh, content, zeg maar.

240
00:37:04.880 --> 00:37:12.740
Een, een verzameling boeken van O'Reilly over programmeren is veel waardevoller dan Reddit threads over programmeren. Mhmm. Intuïtief zeg ik dat.

241
00:37:12.800 --> 00:37:22.208
Ik weet eigenlijk niet of het waar is, maar dat zou een voorbeeld kunnen zijn. Misschien is het zelfs wel andersom. Uhm, maar uiteindelijkHou je over een model van een bepaalde grootte.

242
00:37:22.348 --> 00:37:28.788
Dat is eigenlijk hoeveel gewichten erin zitten. En in de gewichten zit eigenlijk die intelligentie opgeslagen. Want jij stelt een vraag.

243
00:37:28.828 --> 00:37:39.128
Dat gaat door al die gewichten heen en aan de andere kant komt daar een antwoord uit, een plaatje, een nummer of een volgende woord in een tekst. En die modellen, die hebben een bepaalde grootte.

244
00:37:39.188 --> 00:37:48.787
We zitten nu een beetje op de zeven miljard modellen, de zeventig miljard modellen en dan de vierhonderd miljard modellen. Die zijn ze nog aan het trainen bij bij dat waar jij een beetje naartoe wilde Milou.

245
00:37:49.528 --> 00:38:01.768
Maar wat nu blijkt is dat het acht. Waar komt die zeven nou vandaan? Het acht miljard model dus dat is een van de kleinere modellen is van Lama drie is even krachtig als het zeventig miljard model van Lama twee.

246
00:38:01.828 --> 00:38:11.828
En wat betekent dat dan? Ten eerste dat hij sneller is dat je hem goedkoper kan draaien en dat je hem de acht miljard modellen thuis kan draaien op een redelijke laptop. Dat vind ik dan natuurlijk zelf.

247
00:38:12.248 --> 00:38:25.148
Want het is veel kleiner. Ja, het is wel zo de. Het hele open source taalmodellen wereldje is tot nu toe een beetje hobbyen geweest. Als in kijk, ik heb het thuis draaien of kijk, ik heb het in een datacenter draaien.

248
00:38:25.548 --> 00:38:34.328
Maar dan ga je ermee praten en dan denk je oef, het is niet zo best. Het is cool dat het werkt en ik kan er misschien een paar specifieke dingen mee, maar het was gewoon niet zo indrukwekkend.

249
00:38:34.808 --> 00:38:49.938
Lama drie En daarom vind ik het is het inderdaad waar dat dit nieuws is binnen. Binnen de wereld van AI lama drie. Zelfs het zeventig miljard model is zo krachtig dat je eigenlijk nu zelf iets interessants kan draaien.

250
00:38:49.958 --> 00:39:00.428
En met zelf bedoel ik jij als bedrijf, jij als individu. En dat is wel revolutionair, want zelf. Is dus thuis. Ja, of je kan. Je kunt zeggen ik gebruik liever grok met een q.

251
00:39:00.828 --> 00:39:07.828
Grok heeft geen toegang tot chat GPT, want die zit in een doos met een grote strik erom. Bij OpenAI op op slot op zolder zeg maar.

252
00:39:08.308 --> 00:39:16.548
En Tropic Cloud kan je ook niet downloaden, dus open modellen zijn waar je de gewichten wat eigenlijk de intelligentie in zit mag downloaden.

253
00:39:17.048 --> 00:39:28.528
Dan heb je allerlei regels waar je die mag draaien, maar nu bijvoorbeeld het tof is dan om het even samen te brengen. Lama drie Zeventig miljard is krachtig genoeg om een intelligent gesprek mee te voeren.

254
00:39:29.048 --> 00:39:42.948
Is open genoeg dat een bedrijf als Grok met een Q het mag draaien op hun speciale chips, waardoor wij als eindgebruiker ineens snel met iets kunnen praten wat niet bij OpenAI draait, niet bij Meta draait, maar bij een ander waardoor er is een.

255
00:39:42.968 --> 00:39:54.987
En dit is een beetje het verhaal van technologie van de laatste decennia. Dat wint vaak, dat wint, dat wint in de markt. Als jij een ecosysteem van bedrijven hebt die onderling elkaar versterken in plaats van één.

256
00:39:55.268 --> 00:40:05.488
We hadden vroeger CompuServe, was het enige internet of het net of AOL America Online, dat was het. Iedereen probeerde een soort muurtje om het internet heen te bouwen van dit wordt ons commerciële internet.

257
00:40:05.928 --> 00:40:14.558
En dat open internet won dan vaak toch wel. Maar denk je dit echt? Dat dit een. Dat dit een voordeel geeft ten opzichte van die andere modellen? Want ik bedoel we, we, we, we.

258
00:40:14.708 --> 00:40:25.928
Ik ken weinig mensen die Linux gebruiken boven, boven Mac OS tien of of Windows. Nee, het is dus helemaal mee eens. Dit moeten we nog maar uit zien spelen, want dat is altijd een beetje het

259
00:40:27.148 --> 00:40:38.268
hoe zeg ik dat, het complexe van open source. Dat open source ontzettend succesvol is aan de backend, dus in de datacenters waar niemand het ziet, maar aan de frontend zijn het allemaal gesloten gardens.

260
00:40:38.428 --> 00:40:50.468
Dus dat je design lukt gewoon niet open source. Ja oké, dus jij zegt het zou kunnen dat alle apps waar AI in gaat zitten dat daar stiekem op de achtergrond lama drie gebruikt gaat worden.

261
00:40:50.508 --> 00:41:00.448
Want dat is veel fijner voor die bedrijven die die apps maken dan dat ze ChatGPT ervoor nodig hebben. Nou nu en dat is daar is Lama drie wel een beetje een een gekke moet ik zeggen.

262
00:41:00.468 --> 00:41:10.268
Want oké, Mark Zuckerberg als hij erover praat. Je hebt dus Meta AI waar jij net waar jij net het fragment van. Dat is eigenlijk hun frontend. Dus gewoon een website waar je naartoe kan. Kan je praten. Hun chat.

263
00:41:10.328 --> 00:41:21.388
Hun chat GPT, die draait aan de achterkant achterkant op lama drie en die kan je ook downloaden en dat is dat is best gaaf, want dat kan ook bij Mistral. Ja, maar die was niet zo sterk. Dit is echt wel iets. Iets.

264
00:41:21.588 --> 00:41:31.748
Dit is net zo goed als chat GPT vier. Nou, bijna. Bijna. Want dat is wat Milou net al een beetje zei. Er is dus het grootste model, die is 400 miljard parameters.

265
00:41:31.768 --> 00:41:41.608
Dat is nagenoeg gelijk aan het aantal parameters van chat GPT drie en half als ik het goed zeg. Dus dat is niet van vier, maar op zo'n chat GPT drie en half is al heel oud in de AI wereld.

266
00:41:42.068 --> 00:41:55.008
En wat ik net zei is je kan met die van zeventig of die van acht is al krachtiger dan die oude van zeventig. Nou, wat zegt dat over één van 400 met diezelfde kracht? Die is ongeveer GPT vier. Oké, die van 400.

267
00:41:55.088 --> 00:42:01.488
Ja, maar daar hebben we alleen nog maar de resultaten van gezien. Die mogen we nog niet downloaden. En als je die kan downloaden.

268
00:42:01.908 --> 00:42:10.788
Ik las laatst iemand die zei je moet gewoon eigenlijk rekenen in aantal parameters in miljard keer gigabyte. Dan moet je dus 400 gigabyte aan grafische kaarten hebben.

269
00:42:11.208 --> 00:42:21.328
Dan ben je wel even aan het stapelen en GitHub linkjes aan het volgen. Ja, daar moeten we George bij hebben. Ja. Dus dat is hem even nog niet. Maar grok met een q, die heeft dat die capaciteit zeker wel.

270
00:42:21.738 --> 00:42:32.328
Dus als dat model uitkomt voor mij. Ja goed. Het grappige is dus dat vind ik wel interessant, hoor, want ik kwam er dus achter. Dat had ik helemaal niet beseft dat je die taalmodellen gewoon soms even je.

271
00:42:33.268 --> 00:42:41.568
Zie het even als dat je bier aan het brouwen bent. Dat die brouwer even een staafje in dat bier doet en dan even zegt even kijken hoe het bier ervoor staat. Nee, laat hem nog maar even gaan. Dat kan dus.

272
00:42:41.588 --> 00:42:48.068
Dat kan dus blijkbaar met die taalmodellen ook. Dus ze hebben nu een checkpoint gedaan van die 400. Daar even een paar benchmarks op gegooid.

273
00:42:48.168 --> 00:43:01.228
Toen zagen ze dit zit er wel aardig in, dus de scores komen aardig overeen met GPT vier. We gaan nog even door. Ja, ja. En dan is natuurlijk de ja het. De cynische complottheorist zegt dan waarom gaan ze nog even door?

274
00:43:01.248 --> 00:43:08.948
Breng dat ding nou uit. Iedereen wilde toch open source? Ja, waarschijnlijk gaan ze nog even door omdat ze ook zitten te wachten wat OpenAI gaat doen de komende maanden. Het is een beetje in een spelletje.

275
00:43:08.958 --> 00:43:21.788
De hele tijd dat zeg maar je hebt de kleine modelletjes die nog niet zoveel kunnen. Die komen dan het eerst en dan beloven ze al de nummer drie. Google deed het laatst ook ja. Daarna heb je eigenlijk.Heel vaak over AI.

276
00:43:21.828 --> 00:43:30.308
Een heel hypothetisch gesprek vind ik, want we zitten telkens te wachten op wanneer het dan echt komt. Terwijl de, de dingen nog zitten te, te gisten op het vat. Eigenlijk. Eigenlijk wel.

277
00:43:30.468 --> 00:43:40.588
En, en kun, kunnen zij niet gewoon dat, dat model van die 500, 400 dingen, uh, gewoon nu al beschikbaar maken en dat alsnog door laten trainen? Of kan dat dan niet meer? Jawel, dus daarom vind ik het ook een beetje gek.

278
00:43:40.638 --> 00:43:45.268
Het kan ook te maken met dat ze nog moeten red teamen, hè, dus dat er een team op moet, die moet checken of het wel allemaal klopt.

279
00:43:45.288 --> 00:43:52.808
Dat is ook waarom Gemini Advanced, uit mijn hoofd, Ultra whatever, ik weet het niet meer, een tijd uitgesteld is. Volgens mij heet hij tegenwoordig weer Pro, maar goed, maakt allemaal niet uit.

280
00:43:53.268 --> 00:44:02.248
Daar hebben ze echt moeten wa-- en toen hebben ze hem uitgesteld, waren ze alsnog de sjaak. Weet je nog? Ging helemaal mis, dus dat, dat was niet eens genoeg, uh, uh, omdat daar ineens rare plaatjes uitkwamen. Ja.

281
00:44:02.308 --> 00:44:14.648
En daar is, uh, Meta natuurlijk ook bang voor. Maar wil ik wel even bij zeggen: open source, open source, maar niet helemaal, want ze hebben onder andere twee belangrijke eisen in hun open source licentie besta-staan.

282
00:44:15.048 --> 00:44:19.368
Je moet je voorstellen: iedereen kan code online zetten zolang die code niet gestolen is van je baas.

283
00:44:19.548 --> 00:44:27.648
Dus niet iedereen kan code online zetten, maar in essentie kan iedereen code online zetten en daar een tekstbericht bij zetten met: dit is wat je ermee mag. Er zijn allemaal templates voor wat je er dan mee mag.

284
00:44:27.668 --> 00:44:36.528
Je hebt de MIT-licentie, Apache2. Door de jaren heen zijn er een paar formats ontstaan van bekende open source licenses. Wat heeft Meta gedaan?

285
00:44:36.908 --> 00:44:52.548
Die hebben gezegd: we pakken, ik weet het niet eens uit mijn hoofd, een bestaande license, maar daar voegen we even een paar kleine lettertjes aan toe, waaronder: als jouw applicatie meer dan 700, m-, uh, 700 miljoen, moet ik het goed zeggen, dagelijkse gebruikers heeft, dan mag je hem niet gebruiken.

286
00:44:52.608 --> 00:44:59.408
Ah. En dat is dus eigenlijk de Apple, Amazon, Azure-clausule. Ja. Want daar zeggen ze eigenlijk mee: ja, dag.

287
00:44:59.508 --> 00:45:04.428
Ik bedoel die shareholders, die hebben natuurlijk aan tafel gezegd bij Mark: jo, leuk man, die open source hobby van jou. Ja.

288
00:45:04.548 --> 00:45:12.727
Maar dit betekent dat Amazon hem gewoon kan downloaden, bij hun kan draaien en kan verkopen als, uh, uh, Amazon AI. Dag. Dus dat kan al niet. Nou, niet zo gek.

289
00:45:12.868 --> 00:45:22.328
Nee, dus dat vind ik op zich vanuit een commercieel perspectief logisch. En ze hebben erbij gezegd: als jij gaat trainen, want je kan dus doortrainen. Modellen staan niet in steen.

290
00:45:22.418 --> 00:45:27.148
Modellen kan je daarna, net als een mens eigenlijk, kan je een andere opleiding gaan doen, kan je weer doorleren, zeg maar.

291
00:45:27.568 --> 00:45:33.508
En die, uh, als je dat wil doen met Llama 3, dat mag, maar de oude licentie blijft altijd geldig.

292
00:45:33.528 --> 00:45:41.928
Dus als jij binnen jouw bedrijf Llama 3 doortraint naar een Ultra-ding, die gaat Amazon gebruiken, moeten ze alsnog lappen aan Meta, want die hebben het ki-originele kind gemaakt, zeg maar.

293
00:45:42.548 --> 00:45:50.568
En, uh, het is ook nog eens zo dat jij altijd zal moeten zeggen: stel dat wij een, uh, Poké Llama maken, dan moet hij heten volgens mij uit mijn hoofd Llama 3 Poké.

294
00:45:51.088 --> 00:46:02.208
Oké, maar ik, uh, moet, je, ik schrik hier niet bijzonder van. Nee, ik zeg niet: het is helemaal nep, maar ik vind het wel even, wat er bij, als, als iemand die open source- Open source jurist. Brand hier water.

295
00:46:02.288 --> 00:46:11.268
Oké, nou, dan hebben we dat ook weer gehad. Kleine lettertjes, jongens. Ja. Ja. Hé, ik vind het altijd belangrijk als, dat ik zo'n acron-acroniem een beetje snap, waar het voor staat. Llama.

296
00:46:11.508 --> 00:46:23.838
Ja, dat is een grapje op, je hebt large language models, LLM en dan LLMA, Llama. LLAM. Ja, die zit er niet in. Die is stom dan. De M is van Meta. Geen idee wat. Nee, die is van, van, uh, large language model.

297
00:46:24.548 --> 00:46:34.928
Het is eigenlijk- De LLM, large language model. Toen dachten ze: welk woord lijkt dat op? Llama. Nou, die nerds lachen. Ja, en sindsdien zitten we daarmee. Leuk nerdhumor. Drink ik nog een keer in Club Mate. Heel leuk!

298
00:46:35.108 --> 00:46:47.868
En even dan, even praktisch, want wat betekent dit dan? Kijk, ik, ik denk dan, uh, oké, Meta, dat heeft WhatsApp, dat heeft Instagram. Dat gebruik ik allebei dagelijks. Ja, daar komt het in. Daar komt het in. Zeker.

299
00:46:47.888 --> 00:46:56.488
Dus nu, nu komt het voor mij ook echt dichtbij. Ja, nee, je gaat eigenlijk, uh, zonder, op een dag komt er een WhatsApp-update waarin, en ik weet nog niet hoe ze het gaan doen.

300
00:46:56.528 --> 00:47:04.248
In de screenshots die we de vorige keer bespraken zit het in een ander tabje, dus daardoor denk ik: als dat hetzelfde is als het update tabje ga ik er nooit heen. Maar goed [lacht].

301
00:47:04.548 --> 00:47:10.348
Dus het tabje lijkt me onhandig, maar marketingtechnisch lijkt het me slimmer om het inderdaad nu even los te zien.

302
00:47:10.908 --> 00:47:23.948
Maar uiteindelijk gaan ze het denk ik, doen ze als Snapchat dat heeft gedaan en zeggen: oké, veel smartphonegebruikers, doe ik het even binnen de Nederlandse context, uh, van, uh, nou ja, van 20 tot en met, uh, 80.

303
00:47:24.688 --> 00:47:33.728
De meerendeel van de delen, WhatsApp is heel populair in Europa, zeker in Nederland. Dan kan jij natuurlijk gewoon een extra contact gaan toevoegen aan dat lijstje waar normaal jouw chats staan. Ja.

304
00:47:33.768 --> 00:47:37.528
Daar kan je dan ook een videocall mee doen op een gegeven moment, want dat hebben we net besproken. Geen probleem.

305
00:47:38.047 --> 00:47:49.148
Dus ik denk dat uiteindelijk alle mensen zonder dat die ChatGPT-app ooit geïnstalleerd hebben straks gaan kletsen met Llama 3 in WhatsApp als een, uh, virtuele vriend of vriendin.

306
00:47:49.218 --> 00:47:57.708
Maar dit is toch, dit zou best wel eens een keerpunt kunnen zijn. Kijk, b-jullie, dit is jullie wereld, AI. Maar voor heel veel mensen is het dat nog niet.

307
00:47:57.988 --> 00:48:07.728
En voor al die mensen, die gaan nu dagelijks te maken krijgen met- Ja. Virtuele assistants van, van AI. Ja, ik denk dat jij helemaal gelijk hebt. Je hebt helemaal gelijk. Het is heel groot.

308
00:48:07.788 --> 00:48:14.128
Het is, maar het is dus dubbel groot, want ik zit nu dus, nu vanuit mijn geekiness te rommelen over de open source licentie van een open source taalmodel.

309
00:48:14.548 --> 00:48:20.388
Terwijl waar ik helemaal aan voorbij ga, is het feit dat Meta gewoon gaat uitrollen naar, hoeveel zullen het er zijn? Drie, vier miljard WhatsApp-gebruikers.

310
00:48:20.428 --> 00:48:27.088
Als ze dat in één keer aan willen klikken, zit daar in één keer gewoon een, een, uh, een AI op iedereens telefoon. Ja, en een heel ander gebruik.

311
00:48:27.128 --> 00:48:30.628
Want wat, waar, waar, al die dingen die ze demoën gaan allemaal over search.

312
00:48:30.968 --> 00:48:39.148
Dus a-allemaal dingen waar je nu Google voor gebruikt, is dan het idee dat je de Meta AI gaat gebruiken daarvoor, omdat je al in, in, uh, WhatsApp zit.

313
00:48:39.648 --> 00:48:47.928
Dus in, uh, heel concreet: je hebt een vraag over, uh, weet ik veel, wat is een leuk restaurant om heen te gaan? Dat je dat binnen WhatsApp gaat vragen in plaats van dat je van app gaat wisselen daarvoor.

314
00:48:47.978 --> 00:48:57.788
Nou, dat is echt al, g-, dat, dan wint Mark Zuckerberg als hij dat voor elkaar krijgt. Dat je niet naar Google switcht daarvoor. Uhm, en, uh, de zoekbalk is een andere plek.

315
00:48:57.828 --> 00:49:05.348
Dus ie-ieder, iedere app met een zoekbalk, dat wordt gewoon Meta AI. Dus zoeken binnen WhatsApp, zoeken binnen Facebook, zoeken binnen Instagram.

316
00:49:05.848 --> 00:49:13.468
Uh, dan krijg je in feite de, de generatieve AI van, van Meta en er zijn weer heel veel soort van mogelijkheden om die app vetter te maken.

317
00:49:14.048 --> 00:49:22.028
Ja, want het is leuk dat Microsoft zo'n copiloot heeft, maar dat gebruik je natuurlijk alleen op je werk en dan moet je ook nog een werk hebben waarin je veel op kantoor zit. Het is wel goed dat je dit zegt, hoor.

318
00:49:22.068 --> 00:49:33.448
Want wat bij mij echt begon te landen, dat is, dat is door een interview wat Mark Zuckerberg zat te geven in een, in een, uh, andere podcast waar hij zat te praten over, uh, Google+ op een gegeven moment, grapjes te maken en zo.

319
00:49:33.808 --> 00:49:41.604
Het oude social network van Google. En toen besefte ik me ineens dat ik dacht: jaApple is goed in hardware en user experience en mode.

320
00:49:41.984 --> 00:49:49.784
Daarom lukt het Apple om een horloge te maken die succesvol is, want het past eigenlijk zo goed bij Apple. Achteraf denk ik dat vooral. Het is gewoon een accessoire. Dat snappen ze.

321
00:49:49.804 --> 00:50:00.314
Kwaliteit snappen ze, prijs snappen ze, bandje snappen ze. Apple snapt gewoon hardware en lifestyle. Microsoft snapt: hoe zorg je ervoor dat iedereen voor altijd je software moet blijven gebruiken?

322
00:50:00.644 --> 00:50:04.664
Doordat we je gewoon aan alle kanten vastzetten en ontwikkelaars ontzettend goed behandelen.

323
00:50:04.764 --> 00:50:16.304
Daar zijn ze gewoon goed in bij Microsoft, dus die hebben dat, uh, ja, gewoon goed diep in organisaties terechtkomen waar je nooit meer weg kan. Als een soort van, uh, uh, Japanse duizendpoot. Dat is werk. Werk.

324
00:50:16.344 --> 00:50:24.554
Duizendpoot? Ja. Ja, Japanse duizendpoot is een plant die, als je die in de tuin hebt, kan je het vergeten. Duizendknoop is dat. Oh sorry, dank je wel. Ja. Sorry Milou. Snap jij het niet? Of, uh.

325
00:50:24.584 --> 00:50:34.684
Misschien is het ook nog een insect. De één heeft het over open source details en de ander over flora en fauna. Ja. Ja. Duizendknoop. Sorry. Nee. Belangrijk detail. Nee, dat weet ik. Dat is.

326
00:50:34.694 --> 00:50:43.164
Daar heb je helemaal gelijk in. En Microsoft zit op, op werk. Even voor het gemak, want het is, iedereen heeft overlap met elkaar. Maar Apple zit op thuis. Die verkopen hardware en die snappen mode.

327
00:50:43.443 --> 00:50:48.264
Microsoft zit heel erg op werk. Google zit ook op werk, maar die snapt eigenlijk vooral data en zoeken. Nog steeds.

328
00:50:48.274 --> 00:50:57.064
We kunnen roepen over Google wat ze willen, maar het gaat, het gaat best goed met Google, ook al lopen ze overal achteraan. Maar Meta, dat is wel de social media company. Ja.

329
00:50:57.124 --> 00:51:05.684
Die hebben begrepen: als we WhatsApp kopen, moeten we WhatsApp laten. Als we Instagram kopen, moeten we Instagram laten. Want ieder kind wil niet, wil niet in dezelfde snackbar zitten als zijn ouders.

330
00:51:05.764 --> 00:51:11.144
Bedoelt: we kopen die apps en we gaan ze niet slopen. Wat Microsoft altijd neigt om te doen. En integreren forever.

331
00:51:11.164 --> 00:51:21.744
Zij sna-, want wat ik daarmee probeer te zeggen is dat ik denk dat een Mark Zuckerberg en alle mensen om hem heen die al een tijd bij Meta werken, die hebben in het DNA van hun bedrijf zitten: hoe maak je social networks?

332
00:51:21.924 --> 00:51:30.404
Hoe connecten mensen met elkaar? Hoe werkt identiteit bij een puber? Wat moet je daar allemaal voor doen? Dat maakt het ook zo'n een beetje eng bedrijf, want dat snappen ze heel goed.

333
00:51:30.704 --> 00:51:40.124
Toen Google dat ging proberen, echt miljard, miljarden tegenaan gegooid. Poep. Apple. Mislukt. Het lukt gewoon niet. Social networks maken. Ja, een soort Facebooks maken. Het lukt gewoon niet. Ja.

334
00:51:40.224 --> 00:51:48.683
Dus nu, uh, en dat, en, en ze zijn er niet eens, uh, geheimzinnig over. Mark Zuckerberg zegt dan gewoon: weet je wat zo mooi is aan AI?

335
00:51:48.713 --> 00:51:53.284
Dat als jij een influencer, influencer bent op Instagram en je krijgt heel veel DM's de hele dag.

336
00:51:53.324 --> 00:52:01.264
Dat je die dan niet meer hoeft te beantwoorden en dat je zelfs kan aanbieden aan je fans dat ze met je kunnen bellen terwijl jij dat niet bent. Dat gaan we aanbie-- dat zegt hij gewoon. Hij zegt het gewoon.

337
00:52:01.604 --> 00:52:09.223
Gewoon geen, geen blik van blozen. Ja, ja, ja. Oftewel we gaan gewoon fake fucking interacties verkopen met, met celebrities. Ja. Nou. Is daar een markt voor?

338
00:52:09.784 --> 00:52:21.624
Ik denk dat hier een, ik, ik denk dat zij in hun engagement metrics zien dat Taylor Swift heel veel DM'etjes krijgt, die ze allemaal open laat staan. Ja. En die ze straks allemaal gaan beantwoorden. En wat wil je.

339
00:52:21.664 --> 00:52:26.984
Voor geld. Voor geld. Dus dan heb jij een vijf euro Patreon-abonnement op Taylor Swift die met jou gaat kletsen als virtual friend. Het is wel grappig. Ja.

340
00:52:27.014 --> 00:52:34.724
Omdat zij heel goed begrijpen, want dat is eigenlijk het, hè, toen Alexander en ik met GPT-2 en 3 aan het spelen waren in de playground van OpenAI.

341
00:52:35.064 --> 00:52:40.884
Toen moest je nog intypen, uhm, het begin van het verhaal en dan op generate drukken en dan verzond ie de rest van het verhaal.

342
00:52:41.284 --> 00:52:51.644
Tot er iemand bij ChatGPT, sorry, bij OpenAI zat die zei: volgens mij moeten we er gewoon een chat interface van maken, dat snappen mensen beter. Boem, explosie. Het was echt een andere UI op hetzelfde systeem.

343
00:52:52.004 --> 00:53:01.084
Iets beter model, dat wel, maar dat was het. Nu gaan we meemaken wat er gebeurt- Ja. Als een bedrijf met diep in hun DNA hoe mensen met elkaar verbinden. Ja, cultuur.

344
00:53:01.564 --> 00:53:11.424
Gaan, gaan nu dit, dit, uh, die hebben nu de toverstaf. [lacht] Zij hebben de magic gewoon gejat van iemand anders bij wijze van. Dus dit wordt een hele bijzondere tijd.

345
00:53:11.464 --> 00:53:23.544
Want ja, als iemand inderdaad virtual influencers gaat maken en, uh, fake, nou ja, sorry, synthetic friends, want er zit wel een waardeordoeling in. Uh, als de film Her gerealiseerd wordt, is het Meta die dat gaat doen.

346
00:53:23.604 --> 00:53:32.064
Oeh. Ik heb die niet gezien. Oh, dat wordt wel echt tijd, Milou. Ja, ik heb twee dagen geleden weer gekeken voor de derde keer. Ik heb er weer van alles uitgehaald.

347
00:53:32.444 --> 00:53:42.064
Ik was wel een beetje, ik zat wel alleen maar: ja, maar dit gaat echt. Dit gebeurt echt. Dit kan nu al. Ja. Dit kan nu al. Iets wat als toekomstmuziek verkocht wordt, maar wat al kan. Het is natuurlijk een rare situatie.

348
00:53:42.124 --> 00:53:51.884
Ik zat naast die, naast die vriend van mij. Ik zeg: gast, Llama 3.70b op Groq met een Q, [gelach] daar een Faster Whisper over en in C translate. En die dingen gaan echt los, hoor. Maar het is wel grappig wat je zegt.

349
00:53:51.954 --> 00:54:04.404
Dus aan de ene kant Meta, een bedrijf die dus de technische chops heeft om, uh, een open source taalmodel te maken wat in de buurt komt van GPT-4. Ja. En aan de andere kant kent zij, kent dit bedrijf de mens. Ja.

350
00:54:04.604 --> 00:54:08.904
In al haar mooie kanten en vooral ook al haar negatieve kanten.

351
00:54:08.914 --> 00:54:17.804
En dan bedoel ik de, de knoppen waar je op kan drukken om mensen, nou ja, te laten dansen, zoals Mark Zuckerberg dat al een jaar of, hoe lang inmiddels, een jaar of twintig doet? Ja.

352
00:54:17.944 --> 00:54:26.604
Uuuh, wat als je die twee dingen met elkaar combineert? Ja, we weten niet hoe dat eruit gaat zien. Misschien is het inderdaad Taylor Swift die je DM't, maar ja, het kan van alles zijn.

353
00:54:26.764 --> 00:54:38.824
Uh, jij hebt er vertrouwen in dat uit die combinatie, uh, iets gaat komen wat, wat, uh, wat soort van diepe impact gaat maken op de, op de cultuur en hoe mensen met elkaar omgaan. Ik snap die voorspelling wel, ja.

354
00:54:38.844 --> 00:54:50.244
Ja, ik denk als je zegt van de mp3-speler werd pas een ding toen Apple de iPod maakte, de iPhone, de smartphone. AI wordt pas een ding als Meta. Ja, nee, ik, ik ja. Ja, het is nu, het wordt real. Aandelen kopen.

355
00:54:50.344 --> 00:54:57.344
Ik moet zeggen dat ik-- [lacht] zijn we daar ook alweer te laat voor? [lacht] Jij was pas. Nou, ik denk wel dat het een zeer gunstig effect zal hebben uiteindelijk op de beurskoers.

356
00:54:57.704 --> 00:55:08.894
Maar ik, ik, ik ben wel- Je moet mijn adviezen altijd andersom volgen. Ja. [lacht] Nou ja. Ja. Maar als Milou het ook zegt. Nou, maar ik vind, nee. [lacht] Heeft, heeft de podcast over beleggen ook, hè. Ho, ho.

357
00:55:09.284 --> 00:55:14.384
Dit is geen beleggingsadvies moet je dan zeggen. Geen advies. Ja, heel goed. We hebben nergens verstand van et cetera. Voordat we weer wistviezen krijgen.

358
00:55:14.414 --> 00:55:25.924
En als je meer dan 700 miljoen gebruikers hebt, dan moet je een licentie nemen. [lacht] Sorry. Helder. Ja, ik ben hier wel enthousiast over. Ik, het lijkt mij heel leuk om te kijken wat dit,

359
00:55:26.864 --> 00:55:37.944
ja, hoe dit zich in mijn, uh, gezichtsveld gaat, uh, ontplooien allemaal. Ja. Mark Zuckerberg heeft een fantasie. Uhm, ja. Nou weet je wat nog wel een interessant ding is waar ik niet bij stil had gestaan?

360
00:55:38.324 --> 00:55:47.280
Een beetje naïef misschienOp een gegeven moment werd de vraag gesteld oké, je bent nu met aan Mark Zuckerberg. Je bent nu zo'n model aan het trainen. Die 400 miljoen, die ben je nog lekker aan het doortrainen.

361
00:55:47.680 --> 00:55:54.240
Hoeveel heb je er al tegenaan gegooid? Dat zei hij. Een miljard volgens mij. En het zou dan tot zou tot 10 miljard doorgaan of zo in dollars. Best wel geld.

362
00:55:55.180 --> 00:56:04.620
De Metaverse investering heeft volgens mij tot nu toe veertig gekost of 38 of zo, dus ze zijn nog op een kwart van wat ze nu gegooid hebben in de Oculus en het Oculus avontuur. Maar

363
00:56:05.620 --> 00:56:13.920
toen vroeg de host van oké, maar dat ga je dan ook gratis weggeven als je doorgaat. Want het idee is dus dat ze hem inderdaad gaan pakken. Een stukje bier brouwsel en dan laat ze hem gewoon doorkoken.

364
00:56:14.500 --> 00:56:23.920
En dat hij een beetje twijfelachtig zei waarschijnlijk wel. En toen van oké, maar hoe? Hoe leg je dit uit? Want je moet wel return on investment overleggen met je aandeelhouders.

365
00:56:23.940 --> 00:56:31.020
Je bent geen private company in je eentje. En toen zei hij Nou, wij merken tot nu toe met al. Zij doen dus infrastructural open source.

366
00:56:31.060 --> 00:56:37.060
Dus dat houdt in dat ze stukken infrastructuur open source, dus niet genoeg zodat jij het zelf helemaal kan maken. Dus ze geven jou.

367
00:56:37.760 --> 00:56:47.120
Het is het het stuurwiel van een auto en de trekhaak en het dak, maar niet die hele wagen. Maar wel stukjes stukjes infrastructuur. Wat hebben ze bijvoorbeeld gedaan? Het Open Compute Project.

368
00:56:47.160 --> 00:56:55.400
Dat houdt in dat alle blueprints voor hoe zij servers en datacenters bouwen, hebben ze opengegooid, waardoor alle andere datacenter bouwers die hebben overgenomen.

369
00:56:55.720 --> 00:57:04.300
En nu is het de standaard geworden waardoor het voor hun vanuit Meta goedkoper is om servers te kopen. Die passen precies in hun datacenter en iedereen in de markt is er daardoor ook wel blijer.

370
00:57:04.340 --> 00:57:11.540
En zo heb je nog wel wat voor. Zo kun je hele grote spelletjes spelen. Zeker. En ook echt uitleggen. Het is niet helemaal open washing zeg maar.

371
00:57:11.570 --> 00:57:18.680
Net als dat je greenwashing hebt, kan je een soort open source washing doen. Dit is een soort semi open source washing, want dat open computer project is echt een mooi initiatief.

372
00:57:19.420 --> 00:57:29.980
React, hun grote frontend framework waar heel veel webapplicaties op gebouwd worden door anderen dan Meta is een enorm geliefd framework. Het komt vanuit hun vandaan. Ja, maar toen zei hij wat wij verwachten.

373
00:57:30.100 --> 00:57:39.840
Er is op dit moment enorm tekort aan mensen met die die op niveau kunnen meewerken en denken aan dit soort AI-toepassingen. Dat is bijvoorbeeld Apples probleem.

374
00:57:39.880 --> 00:57:46.880
Die krijgt ze bijna niet, want Apple wil alleen maar geheimzinnig doen en je mag niks publiceren terwijl het allemaal een beetje academische mensen zijn.

375
00:57:46.920 --> 00:57:57.040
Of anarchisten, of allebei die zeggen nee, ik ben aan het bouwen aan de toekomst van de mensheid met een nieuwe synthetische levensvorm. Ik ga niet bij jou in je wild garden zitten en het allemaal geheim houden.

376
00:57:57.060 --> 00:58:05.960
Kul van Mark Zuckerberg werken zeg. Mark Nou, als je bij ons komt werken. Dat is toch lang geleden dat programmeurs dat zeiden. Ja, want hij zegt dus als je bij mij. Cool werk, verjaardagen.

377
00:58:06.020 --> 00:58:14.680
Mag je alles vertellen aan iedereen. Sterker nog, jouw werk zet ik daarna op internet. Is ook veel waard. En dat dat. Hij zegt dus het trekt bij ons enorm veel talent aan.

378
00:58:14.700 --> 00:58:20.060
Als ik hun vertel dat ze dat niet zelf vertellen, maar de teammanager dat ze meewerken aan een open source model.

379
00:58:20.100 --> 00:58:28.180
Ik denk vaak aan die arme programmeurs die op verjaardagen moeten vertellen dat ze aan Instagram werken of aan Facebook werken en dat iedereen erop dat iedereen erop spuugt. Dat is toch zielig?

380
00:58:28.440 --> 00:58:38.880
En nu kunnen ze het trots doen. Cijfer detail. De grafische kaarten waar we het net over hadden, die van € 15.000 stuk, die zijn allemaal niet zo goed te krijgen. Dat is trouwens inmiddels aardig bijgetrokken begreep ik.

381
00:58:38.900 --> 00:58:51.220
Als in het kan weer de. De short is een beetje voorbij, maar wat blijkt? Meta had een enorme hoeveelheid kaarten liggen. Waarom? Omdat ze een investering hadden gedaan om het TikTok algoritme te kunnen evenaren.

382
00:58:51.580 --> 00:59:01.940
Omdat ze voor hun eigen threads wilden proberen te zorgen dat ze iets konden bouwen. Reels. Ja, maar het was. Nee, voor mij was het trainen voor threads. Het algoritme van Threads. Ja sorry. Ja nee dus.

383
00:59:01.980 --> 00:59:15.520
Het was het TikTok achtige algoritme, dus hyper gepersonaliseerde algoritme om mensen verslaafd te maken aan veel engagement. Daarvoor wisten ze. Want je moet je even voorstellen dat dit hele taalmodel ding en GPT en zo.

384
00:59:15.540 --> 00:59:22.320
We praten drie jaar en die kaarten zijn al veel langer te koop. Nvidia zit al heel lang te hopen dat het een keer ging gebeuren.

385
00:59:22.360 --> 00:59:32.760
Hun mooiste droom is uitgekomen bij de kaart bouwen zeg maar, die die de schep verkopen tijdens een goldrush zeg maar. Om het allemaal op te graven. En Meta had nog helemaal niet voorzien.

386
00:59:33.360 --> 00:59:42.580
Gpt taalmodellen zijn een ding, maar hadden wel voorzien zo'n super gepersonaliseerd hyper gepersonaliseerd algoritme zoals die jongens van TikTok hebben willen wij ook. Dus we kopen die kaarten.

387
00:59:42.600 --> 00:59:51.400
We kopen die kaarten en toen op een gegeven moment is gezegd maar wacht even, nu begint er van alles rond taal modellen te gebeuren en ik moet zeggen, dat moet ik Zuckerberg wel geven.

388
00:59:51.440 --> 01:00:01.120
Die kan dus van heel snel met een soort startup mindset in een in een olietanker zeggen nee en dan helemaal de andere kant op. Hop al die al die kaarten uit. We gaan nu een eigen lama trainen.

389
01:00:01.380 --> 01:00:10.380
Daar is lama één op getraind, lama twee op getraind en nu draaien die kaarten dus. Plus wat ze er nog bijgekocht hebben om lama drie te trainen. Zij zaten op een enorme berg omdat ze dat ooit gehamsterd hadden.

390
01:00:10.660 --> 01:00:17.260
Voor een andere reden. Ja, die zijn ondertussen niet over datum geraakt ook, alhoewel, werkt het niet meer. Nou, wel een beetje, maar niet zo snel inderdaad.

391
01:00:17.380 --> 01:00:26.300
Ja, ja, het hadden ook allemaal kaarten kunnen zijn waar je niks meer mee kan. Het is ook ergens een deel geluk. Het is heel veel geluk ja. Ja nu En en en.

392
01:00:26.620 --> 01:00:34.760
Ja, zijn punt is daar dus ook dat hij zegt van ja, je moet dus ook een beetje. Dan gaat hij natuurlijk achteraf helemaal mooi kletsen. Maar hij geeft wel toe dat hij zegt het was echt geluk, ik heb dit niet voorzien.

393
01:00:35.560 --> 01:00:45.300
Maar je moet dan wel heel snel zien We hebben geluk. Ja, ja. Ja. Ja. Ja. Ja. Welke podcast heb je geluisterd? Kun je die meegeven? Ja, ik. Ja, die. Zijn naam is een beetje ingewikkeld. Ik heb het met Alexander gedeeld.

394
01:00:45.380 --> 01:00:52.200
Als jij het er nog even straks bij wil pakken. Want ik wil het in de. Ik Ik stuur het. Komt in de show notes. Zit het in de shownotes? Eigenlijk wel een tip ook.

395
01:00:52.220 --> 01:01:02.880
Een beetje interviews met dat soort jongens als Mark Zuckerberg en dan best wel gedurfde vragen. Ook wel van leuk. Straks hebben we de techno fix, het probleem van Hannah Prins.

396
01:01:02.920 --> 01:01:15.560
En naast dat zij de wereld wil verbeteren en het klimaatprobleem wil oplossen, wil zij ook nog de kinderen van het land redden. En eigenlijk van de hele wereld. Maar eerst Alexander er is. Er is reclame.

397
01:01:15.580 --> 01:01:26.840
Breaking news van een sponsor. Ja, Squarespace. De reclame muziek is niet gemaakt door AI. Lama. Lama? Nee, lama. Lama.

398
01:01:27.300 --> 01:01:36.240
Goed, de reclame muziek is niet gemaakt door AI, maar is gecomponeerde stockmuziek en geweldig geschikt voor de tekst die zo gaat volgen.

399
01:01:38.040 --> 01:01:44.420
Pockie wordt gesponsord door Squarespace.Ben jij een ondernemer die zich wil onderscheiden en online succes wil boeken? Let dan even op.

400
01:01:44.800 --> 01:01:54.700
Een beetje ondernemer heeft een website, maar maak je al gebruik van Squarespace om op eenvoudige wijze de meest prachtige websites te maken? Ook in tijden van AI is goede vindbaarheid op Google belangrijk.

401
01:01:55.080 --> 01:02:05.299
Squarespace weet dit en biedt robuuste SEO tools die je helpen beter te scoren in zoekmachines. Squarespace zorgt ervoor dat je site niet alleen prachtig is, maar ook gevonden wordt.

402
01:02:05.820 --> 01:02:16.400
Squarespace maakt het makkelijk om je eigen website te maken, zodat jij je kan focussen op het gedeelte dat jij leuk vindt: het verkopen van je product. Realiseer je passie met Squarespace.

403
01:02:16.940 --> 01:02:20.140
Speciaal voor Pokie luisteraars heb ik een speciale kortingscode.

404
01:02:20.200 --> 01:02:34.340
Ga naar Squarespace.com Pokie voor een gratis trial en ben je klaar om je website te lanceren, dan krijg je met de code Pokie tien 10% korting op je eerste aankoop. Terug naar de show. Hebben jullie genoten?

405
01:02:34.640 --> 01:02:43.780
Ja, ik heb een beetje het idee dat ik nu een soort Simba in de lucht moet houden [Milo lacht] waar jullie allemaal voor kunnen buigen. Dat is het gevoel wat Squarespace mij iedere dag geeft, Milou. Het is heel hol.

406
01:02:43.960 --> 01:02:56.520
Als een Simba die in de lucht gehouden wordt. Ja, inspirerend. [Milo lacht] Ja. Is het dan nu tijd om een probleem te bespreken? Want er is weer echt een pral-probleem. En deze keer is het probleem van Hannah Prins.

407
01:02:56.820 --> 01:03:05.660
Ik zei het al, uh, zij is klimaatactivist. Je kent haar misschien van snelwegblokkades. Ik denk dat ze er ook wel heeft gezeten. Extension Rebellion. Zit ze bij inderdaad.

408
01:03:05.980 --> 01:03:19.220
En ze heeft een boek geschreven: Je bent jong en je wilt wat toekomst. En haar probleem gaat als volgt. Pokie Probleemoplosser, de handige hulplijn voor al uw techno-fixes met Milou. Hi Milou, Hannah hier.

409
01:03:19.340 --> 01:03:28.680
Wat is uw probleem? Ik maak me ernstige zorgen over klimaatverandering en zeker ook over de rol die techno-fixes daarin kunnen spelen. Het lijkt me geweldig als dat ook een keer wordt besproken.

410
01:03:29.200 --> 01:03:35.640
Maar ik maak me ook nog in mijn dagelijkse leven, waarin ik lekker door Instagram scroll, zorgen over iets anders.

411
01:03:35.760 --> 01:03:48.419
Namelijk influencers die hun kinderen, vaak nog jonge, jonge, jonge baby's die zelf geen toestemming kunnen geven, op Instagram zetten om daarmee heel veel geld te verdienen. Hoe kunnen jullie dat oplossen?

412
01:03:49.079 --> 01:04:00.340
Geef mij een AI tool waarmee dit probleem kan worden opgelost. Dat ik dat niet meer hoef te zien en dat die influencers geen cent meer kunnen verdienen aan hun kinderen online zetten. Groetjes. [Milo lacht] Ja.

413
01:04:00.800 --> 01:04:08.280
Ja, je bent wereldverbeteraar of je bent het niet. Ja. Nou, ik moet meteen denken aan het nieuwsbericht van vanmiddag. Ik ben zo'n NOS.nl scroller.

414
01:04:08.540 --> 01:04:16.840
Dan zit je met iemand te praten, denk je: wij lezen allebei alleen maar NOS, hè. Ja, we hebben hetzelfde gelezen. Maar goed, vandaag was er een bericht over een reclamecode voor influencers.

415
01:04:17.240 --> 01:04:23.460
Volgens mij is een jongen als Bram Krikke een van de eersten die daarvoor getekend heeft. Wat is het idee daarvan? Je moet een jaarlijkse cursus doen.

416
01:04:23.620 --> 01:04:28.100
Kl- ik, ik werd een beetje cynisch, maar ik ben een beetje gaan zoeken. Dacht nou, het is wel iets. Een e-learning.

417
01:04:28.300 --> 01:04:37.700
Ja, en, iets van een cursus en je moet dan, en dan kan je een keurmerk krijgen als influencer waarbij je snapt van oké, wat is product placement? Wanneer moet ik zeggen dat het een advertorial is?

418
01:04:37.760 --> 01:04:44.200
Wat zijn een beetje de, uh, ja, de code om reclame te maken op mijn Instagram of andere kanalen?

419
01:04:44.600 --> 01:04:55.640
En daar hebben, uh, dat is niet verplicht, maar de markt heeft nu al aangegeven, een brand als Coca-Cola heeft al gezegd: wij willen alleen maar werken met mensen die dat keurmerk hebben. Ja, ja, oké. Maar detail.

420
01:04:55.700 --> 01:05:06.160
Ik las het bericht, dacht nog: nou op zich keurmerk prima, dit is al iets, hè. Stond er in de laatste alinea: en dit gaat gecontroleerd worden via AI en dan krijg je gewoon boetes. Ik zei: w-w-wow, wat? [Milo lacht] Wat?

421
01:05:06.600 --> 01:05:16.020
Dat stond er gewoon echt zo. Er wordt een algoritme gestart die alle, alle feeds gaat checken en iedereen boetes gaat geven. Toen dacht ik: hoe? Als wat? Ja. Nou dus. Dan is het wel verplicht. Ja, nou ja, in essentie.

422
01:05:16.220 --> 01:05:27.560
Het is niet verplicht om te mogen adverteren, maar als jij het niet, als jij het niet doet kan je wel een probleem. Ja, het is wel verplicht. [lacht] Ja, een beetje slecht eigenlijk. Maar om dat label te mogen voeren.

423
01:05:27.600 --> 01:05:38.440
Ja, ik denk om eerlijk te zijn wat het idee dan is als jij het label hebt. Ja. Dat je dan in de gaten gehouden wordt. Ja. Ja. Dus, uh, dan is het. En als je dat label hebt dan kun je meer adverteerders krijgen.

424
01:05:38.460 --> 01:05:48.600
Dus ze gebruiken die, die, die leverage. Ja, en ik dacht meer van oké, op zich zo'n label, dus de Reclame Code Commissie. Ik bedoel op, in andere media is dit waarschijnlijk al lang een ding, hè.

425
01:05:48.680 --> 01:05:55.600
Uh, dus het is een beetje laat op het gebied van social media. Is een soort Wild West geweest al die jaren. Dus dat daar iets geprobeerd wordt, prima.

426
01:05:56.040 --> 01:06:06.080
Die laatste alinea met: en dat gaan we dan monitoren via AI, dat valt mij natuurlijk op, want ik word altijd zenuwachtig als mensen zeggen: we gaan dingen monitoren via AI. Maar ik dacht wel. Waarom?

427
01:06:06.200 --> 01:06:16.500
Uh, nou, omdat als de human uit de loop gaat, om het even cool te zeggen, dus dat, uh, dat, dat die, nou, als die boete echt automatisch gestuurd wordt met een, uh, iDeal linkje erbij, [lacht] maar dan is dat wel.

428
01:06:16.560 --> 01:06:25.140
Ik ben altijd, uhm, van die grote sleepnetten, zeg maar, dat je echt zegt van: nou, laten we gewoon, uh, weet je wat we doen. We moeten niet te ver afdwalen. Ja. Maar hoe gaat AI dit oplossen?

429
01:06:25.280 --> 01:06:30.740
Nou dan ka, dan, nou, uh, als je dan, als je dan die tool hebt, hè, dat beantwoordt eigenlijk twee vragen tegelijk.

430
01:06:31.140 --> 01:06:38.780
Dan kan je natuurlijk ook zeggen: nou, we scannen nu alle accounts van iedereen die dat label zegt te hebben. En dan als we dan een Coca-Cola flesje zien en die is niet aangegeven, dan krijg je een mail.

431
01:06:38.840 --> 01:06:46.780
Moet je nog, three strikes en you're out. Ja. Zoiets waarschijnlijk. Ja. Nou, dan kan je natuurlijk ook zeggen: zien wij kinderen in beeld? Ja. En dan kan je natuurlijk zeggen van: klopt dat wel?

432
01:06:46.840 --> 01:06:54.000
En wat is de leeftijd van die kinderen? Zo'n algoritme kan je dan uitbreiden. Precies. Dus, uh, maar terwijl ik dit zeg vind ik dat heel erg spannend.

433
01:06:54.420 --> 01:07:04.920
Ik zou, als in dat dat allemaal geautomatiseerd wordt en dat je daar dan automatisch allemaal enge waarschuwing mails over krijgt. Ik zou het, uh, dus wat daar dan de techno fix voor is, w-weet ik nog niet zo heel goed.

434
01:07:05.380 --> 01:07:13.740
Waarschijnlijk dus zo'n, zo'n scanner. Maar, uh. Er moet eerst een wet komen omdat. Nou ja, afspraken. Zullen we gewoon eens met elkaar afspreken dat dat niet klopt?

435
01:07:13.780 --> 01:07:25.940
Volgens mij kan ik me van vroeger, uh, dat dateert mij, maar herinneren dat een kind acteur bijvoorbeeld bij de film Abeltje maar zoveel uur op de set mocht zijn, dat ze dan iedere keer moesten wachten dat hij weg moest en dat ze dan weer terugkwamen.

436
01:07:26.460 --> 01:07:36.400
Zeg ik, zeg ik iets geks, Alexander? Ja, nee. Misschien dat hier AI, uh, die kan, d-die, die digitale Abeltje heb je in ieder geval geen kind acteur meer voor nodig. Dus je kunt voor al, je kunt. Ja.

437
01:07:36.420 --> 01:07:46.400
Je kunt, uh, juist, uh, AI gebruiken om grote hoeveelheden influencer kinderen te maken en dan hoeven die echte kinderen daar niet voor, uh, te werken. Ook, ook. Zo zou je het ook kunnen zien, hè.

438
01:07:46.420 --> 01:07:58.144
Kindsterretjes kunnen we ook. Flat de zoon.Flood them with influencers Die nep kinderen hebben ook Ja Ja. Of in ieder geval niet de echte. Ja, dan heb je ook geen. Dan hoef je die kinderen niet voor het.

439
01:07:58.164 --> 01:08:06.164
En dat betekent dat ik ook een mom influencer kan worden zonder dat ik een kind heb. Dit is toch? Dit is toch een mooi moment voor jou? Wel waanzinnig. Hier komt heel veel bij elkaar.

440
01:08:06.224 --> 01:08:16.724
Maar wat dan als dat nep kind wel gebaseerd is op een foto van jou en je vriend? Dus dat hij dan toch lijkt. Ja. Misschien komt hij dan wel in de buurt en dan heb je soort van achteraf toch een probleem.

441
01:08:16.764 --> 01:08:22.384
Ja, maar goed, het is toch leuk dat dit. Ja, ik ben wel benieuwd wat AI ervan zou maken.

442
01:08:22.504 --> 01:08:38.384
Ik denk tweede is een digitale schandpaal, dus gewoon je kan natuurlijk je eigen soort van uh monitoring software maken en elke keer als je dan als je heel YouTube leegtrekt en je kijkt naar beelden waar kinderen in zitten en dan maak je een schandpaal voor al die bedrijven.

443
01:08:38.424 --> 01:08:49.904
Dus dan extraheer je de bedrijven die die shit sponsoren. De Bellinga's. Ik noem maar iets verschrikkelijks. Er zit een heel netwerk van van financiers achter, waaronder filmmaatschappijen die die films uitbrengen en zo.

444
01:08:50.384 --> 01:08:58.964
Je moet al die bedrijven, die moet je exposen. Dus wie adverteren bij dit soort filmpjes? En uh, wie heeft er dit soort filmpjes?

445
01:08:59.304 --> 01:09:11.164
En dan maak je een schandpaal en dan zorg je dat soort van de de deze informatie terechtkomt bij de adverteerders en dat de de mensen in het land boos worden op de adverteer adverteerders dat ze die kinderexploitatie steunen.

446
01:09:11.304 --> 01:09:22.044
Maar ook tegelijkertijd voor alle mensen die dat kijken. Kunnen we die dan ook aan de digitale schandpaal hangen? Of is gaat dat weer te ver? Zin me je toch op het ijs zenuwachtig van te worden? Waarom eigenlijk?

447
01:09:22.124 --> 01:09:28.424
Nou, [lacht] omdat al die schandpalen en zo. O, ik ben er. Ik ben er heel gemakkelijk in. Guillotines.

448
01:09:28.724 --> 01:09:37.683
Aan de ene kant heb ik het probleem opgelost door kindfluencers synthetische kindfluencers te maken en aan de andere kant, dus daarmee flatten we de zoon.

449
01:09:37.704 --> 01:09:45.904
En aan de andere kant lossen we het probleem op door de geldstromen af te afsnijden. Hannah Prins vraagt om een oplossing. Nou, hier is ie. Een waterdicht plan.

450
01:09:46.204 --> 01:09:57.784
Oké, dan wil ik nog Hannah beloven dat wij een a-aflevering spenderen waar we meer langer ingaan op het energievraagstuk rondom AI. Want dat is wel een dingetje. Ja. Een flink dingetje. Wel een dingetje.

451
01:09:58.084 --> 01:10:08.624
Dat lijkt mij interessant. Afgesproken. Dat staat erop. Dan zijn we er doorheen. Vergeten we nog iets? Zei je met een lichte zucht. Nou, ik vond het wel uh. Het was even zwaar.

452
01:10:09.004 --> 01:10:17.544
Ik vond het wel even zwaar, [Alexander lacht] maar ik heb het ook maar gewoon gelaten. Lama73B Grog baniku bedoel. Ik dacht lama. [Alexander lacht] Sorry, het is mijn fout.

453
01:10:17.584 --> 01:10:29.384
Wat ik echt heftig vond die open source license. Zo, een heel heftig moment. Oh, toen ik dat hoorde van jou dacht ik wauw, het is helemaal niet open. [lacht] Wat een confrontatie. Goed.

454
01:10:30.024 --> 01:10:42.264
Uhm, ja, ja, je kan een lezing krijgen van uh Alexander. Als je meer van dit wil, [Yora lacht] maar dan langer. Als je dit meer wil. Ik roep zeg maar gewoon een middag lang Grog baniku. [lacht] Ik doe een dansje erbij.

455
01:10:42.744 --> 01:10:55.324
Ik kan het van harte aanbevelen. [Alexander lacht] Uh, Wietse geeft ook lezingen inderdaad. Je kan mailen op uh lezing@pokkie.show en dan danken wij tot slot nog Sam Hengeveld voor de edit. Tot volgende week.

456
01:10:55.364 --> 01:11:01.044
Tot volgende week. Doei. Doeg. [afsluitend jingle]
