WEBVTT

1
00:00:00.100 --> 00:00:09.480
[alarm] Oh! [zucht] Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.740 --> 00:00:39.920
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:51.000
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Koffietijd voor mannen. De podcast waarin drie onbezonnen gasten je wekelijks een kijkje geven in hun zinderende studentenleven.

6
00:00:51.060 --> 00:01:00.540
We gaan geen onderwerp uit de weg en helpen je op het gebied van liefde. Zou je huilen tijdens de seks een, een, een afknapper vinden? Vriendschap en alle andere problemen die je tegenkomt in je studentenleven.

7
00:01:00.680 --> 00:01:14.280
Ze miste een beetje vo. [gelach] Elke maandag om 3.00 uur sharp op je favoriete podcastplatform. Ik heb met zoveel meiden getongd en met vier verschillende. Ik zo bram, dat was vier keer dezelfde.

8
00:01:14.340 --> 00:01:17.060
[gelach] We luisteren deze podcast op eigen risico.

9
00:01:20.900 --> 00:01:42.160
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin wij, Wietse Hagen en Alexander Klöpping, je bijpraten over de wondere wereld van AI.

10
00:01:42.560 --> 00:01:45.960
Deze week zijn we een beetje in de war over nieuwe functionaliteit in ChatGPT.

11
00:01:46.560 --> 00:01:55.020
Mensen kunnen namelijk betalen voor het pluspakket en die mensen kunnen vanaf nu in Nederland foto's en audio uploaden naar ChatGPT en wij bekijken wat je ermee kan.

12
00:01:55.700 --> 00:02:06.880
Daarnaast: Google en Adobe hadden deze week hun grote conferenties waar ze nieuwe technologieën aankondigden en beiden lieten zien wat hun nieuwste AI's nu kunnen op het gebied van beeldbewerking. En dat is best heftig.

13
00:02:07.340 --> 00:02:14.800
Daar hebben we het over. Wietse vertelt over hoe je je eigen taalmodel lokaal kunt draaien, dus op je eigen computer. Hij is daar een beetje van in de war.

14
00:02:15.200 --> 00:02:29.710
En tenslotte heeft hij een tip voor een geweldige mini-documentaire gemaakt met AI. Dit is Poki. Veel plezier! Ik heb nu dus sinds vanmorgen, uhm, ChatGPT plus, uh, audio waar we het vorige week over hadden. Ja.

15
00:02:29.720 --> 00:02:39.750
De stemmen van, uh, de stemmen. En hij spreekt dus volgens mij meerdere talen. Zal ik eens, uh, wat zal ik vragen aan het ding? Wat wil je? Wat vraag jij sowieso om een beetje modellen te testen?

16
00:02:39.860 --> 00:02:54.019
Of heb je niet een testvraag? Ik vraag bijvoorbeeld altijd wie, wie was Carl Sagan, zeg ik dan altijd. Kijken wat hij weet. Wie is Carl Sagan? Leg het me uit in de spreekstijl van een circusdirecteur. Hij gaat denken.

17
00:02:55.180 --> 00:03:04.300
Dames en heren, jongens en meisjes, stap binnen in de wondere wereld van Carl Sagan. [gniffelt] Deze man, ah, deze legende was niets minder dan een kosmische maestro.

18
00:03:05.160 --> 00:03:17.440
Geboren in het Amerika van 1933 veroverde hij de wereld met zijn astronomische kennis en wetenschappelijke flair. Hij was een wetenschapper, een schrijver, een dromer en jawel, een tv-ster.

19
00:03:17.860 --> 00:03:27.100
Zijn show Cosmos was een intergalactische reis die miljoenen meenam door ruimte en tijd. Carl Sagan, de ringmeester van het kosmische circus. Jeetje.

20
00:03:27.200 --> 00:03:36.200
Nu je dit weet, wat intrigeert je het meest over deze veelzijdige figuur? Oh ja. Ja, ik heb tegen ChatGPT gezegd dat hij mij altijd vragen moet stellen. [lacht] Ik hoor het.

21
00:03:36.410 --> 00:03:47.720
[lacht] Ik was, ik, ik was heel boos dat hij, uh, altijd maar gewoon dingen declameert en ik wil dat hij in gesprek met mij gaat. Dus dit is waarom er een vraag komt. Maar ik ga toch even, ik ga nog even hier op door.

22
00:03:47.760 --> 00:04:02.980
Ik ga vragen. Wacht, uh, tap to activate. Ik vond het al wel heel erg leuk moet ik zeggen. Randje uncanny soms. Oké, uh, dit was leuk, maar nu korter en in de stijl van een piraat. Carl Sagan was een ware sterrenkijker.

23
00:04:03.580 --> 00:04:14.900
Een meester van het heelal. Snap je? Een Amerikaanse wetenschapper en tv-ster [gniffelt] die de wereld meenam. Een piraat met een Amerikaans accent. [lacht] Ja. Heel verwarrend. Het is nog niet helemaal daar.

24
00:04:15.260 --> 00:04:19.940
Ik zag dus dat iemand, want Vision zit er ook in, dus je kan dus nu foto's sturen aan ChatGPT Plus.

25
00:04:20.340 --> 00:04:29.980
En, uhm, ik zag dus iemand die had een foto gemaakt van zijn hele sport, had een thuis sportschool met gewoon apparaat, met dumbbells en weet ik veel een of andere rek of zo. Ja.

26
00:04:30.440 --> 00:04:38.340
En had hij een foto gemaakt van zijn equipment en ik zei: die maak hier een trainingsschema van. Komt dat ding met een trainingsschema. Wietse, we leven in de toekomst.

27
00:04:38.860 --> 00:04:48.250
Ja, ik moet zeggen dat ik, uh, nog meer onder de indruk ben van de Vision dan de audio. Die audio is tof en dit is, be-, ja, een beetje vreemd ook of zo, maar ik vind het wel heel leuk. Ja.

28
00:04:48.520 --> 00:05:00.050
Heel leuk om mee te spelen ook. Maar die Vision, het is ook omdat ik denk ik technisch, uh, ja gewoon onder de indruk ben van oké wauw, je moet dan dus objectdetectie gaan doen binnen zo'n afbeelding. Ja.

29
00:05:00.080 --> 00:05:08.540
Je moet eerst al die concepten die eruit snijden of zo, dan stuk voor stuk interpreteren wat ze zijn en daar dan weer een verhaal van maken.

30
00:05:08.560 --> 00:05:20.360
Ja, op zich, als je eenmaal in tekst hebt wat in de foto zit, dan kan je dat weer voeren naar dat taalmodel. Het is gewoon echt een aaneenrijging van verschillende stukjes wat het zo gaaf maakt. Mhmm.

31
00:05:20.460 --> 00:05:29.200
Net als wat er natuurlijk met HeyGen gebeurd is, die van alles aan elkaar hebben gereikt en ineens als totaalpakketje heeft het zo, maakt het zo'n indruk.

32
00:05:30.300 --> 00:05:37.340
Wat vind je tot nu toe het indrukwekkendst wat je gezien hebt aan voorbeelden van die plaatjesherkenning? Uh, dat is het.

33
00:05:37.360 --> 00:05:45.620
Ja, ik heb nu, wat ik gaaf vond is, maar dat is gewoon uit hun aankondigingsblogje van OpenAI, is het idee dat je je fiets gaat repareren.

34
00:05:46.100 --> 00:05:54.060
En het gave is dat ze dan eigenlijk een foto maken van, uh, ja, de stang waar je zadel op zit en dan zeggen: joh, ik wil dat zadel verstellen, help.

35
00:05:54.800 --> 00:06:03.140
En dan krijg je uitleg van oké, ja, alsof het een, een vriend is die je, of vriendin, die je een foto stuurt en zegt: joh, jij weet iets van fietsen toch? Wat moet ik doen?

36
00:06:03.180 --> 00:06:14.080
Help!En dat er dan gezegd wordt: oké, laat even zien welke tools je hebt en dan leg je die toolbox op de grond en dan, ja, daar links in de hoek, daar zit iets, dat gaat werken. En dat, ja, ik weet niet.

37
00:06:14.120 --> 00:06:17.910
Dan weet je: oké, dit is nog een fiets. Even een zadel verstellen.

38
00:06:17.980 --> 00:06:26.800
Maar ja, ik heb natuurlijk grapjes gemaakt over een katalysator vervangen in je auto of zo de vorige keer, maar ja, dat, dat is dan niet ver weg en misschien is het er zelfs al.

39
00:06:27.340 --> 00:06:37.960
Op Twitter staan dus heel veel voorbeelden van, uh, rare, rare dingen die mensen ermee gedaan hebben. Mensen hebben foto's gemaakt van, uh, x-rays, dus, uh, röntgenbeelden. Ja.

40
00:06:38.240 --> 00:06:47.140
Prescriptions or medical reports en dan daar allemaal vragen over kunnen stellen. Ik vind dat hele medische echt fascinerend. Kijk, ik weet dat niet. Ik kan het niet falsificeren.

41
00:06:47.880 --> 00:07:04.240
Uhm, uhm, maar ik heb dus een, een vriend die had een, uh, een, uh, een baby die heel erg ziek werd en, uh, tien dagen, tien da-- binnen tien dagen werd dat steeds erger en die ging dus naar de huisarts.

42
00:07:04.290 --> 00:07:14.440
En die huisarts zei: ja, gewoon paracetamol geven. En, uh, de ouders, uh, dus mijn vriend, uh, die, die, die, uhm, die vertrouwde dat gewoon niet, want het werd steeds erger.

43
00:07:14.880 --> 00:07:26.520
Uiteindelijk zijn ze toch maar naar het ziekenhuis gegaan en daar bleek dat het een bacteriële infectie was en dat ze toch wel echt, uh, moesten ingrijpen, uh, daarop en daarna, na het, na het medisch ingrijpen ging het ook snel, snel beter.

44
00:07:26.840 --> 00:07:40.600
Maar het was dus tien dagen, met een baby is alles gewoon fucking eng en het was tien dagen steeds enger. [schraapt keel] Later dacht ie, uhm, bij het ziekenhuis hebben ze, uhm, uh, bloed afgenomen en dat geanalyseerd.

45
00:07:41.040 --> 00:07:48.960
En als jij naar het ziekenhuis gaat en ze doen een bloedtest, dan komen die resultaten in het dashboard van het ziekenhuis. Weet je, achter DigiD, zo'n, achter zo'n DigiD login. Ja.

46
00:07:49.360 --> 00:07:59.680
Dus hij heeft gewoon de, uh, de bloedresultaten gecopy paste. Dat is van dat onbegrijpelijke gibberish dat, dat, het, het had net zo goed een andere taal kunnen zijn.

47
00:07:59.780 --> 00:08:10.680
Gewoon, je ziet dat het letters zijn, geen idee wat er staat, maar gewoon copy paste gedaan en aan ChatGPT gevraagd: uh, je bent niet een dokter, maar je helpt wel een dokter en de dokter gaat verifiëren wat jij zegt.

48
00:08:10.880 --> 00:08:20.680
Uh, dus dit is geen medisch advies, maar vertel toch even wat hier is. [lacht] Wordt wel geverifieerd. [lacht] Wordt geverifieerd door een mens. Maak je geen zorgen, kut, uh, kut OpenAI.

49
00:08:21.260 --> 00:08:35.860
Maar, uhm, dat ding komt dus in één keer met bacteriële infectie op basis van, uh, als, als diagnose van de bloed, uh, van, van de bloedtest. Wat uiteindelijk ook het ding was wat aan de hand was.

50
00:08:35.900 --> 00:08:46.900
Nou kijk, dit kan toeval zijn. Ik wil niet zeggen, weet je, je moet niet meer naar de dokter gaan. [lacht] Ja. Jomanda. AI is het nieuwe Jomanda. Maar ja, jezus, het is wel, uh.

51
00:08:46.920 --> 00:08:57.700
Nou, er zit een bepaalde potentie die je al ziet natuurlijk. Ja. Voor heel veel-- het is uiteindelijk patroonherkenning, uh, op het hoogste niveau. Ja. En, uhm, ja, ik vind- God, wat weten wij hiervan?

52
00:08:57.740 --> 00:09:06.980
Dit is ook, ik bedoel, ik, ik weet niet hoe goed dit nou daadwerkelijk is. Het zal ongetwijfeld de hele tijd de mist ingaan, maar ik vond deze wel vet. Het werkte wel één keer minimaal goed. Zeker.

53
00:09:07.000 --> 00:09:08.030
En ik denk nog steeds dat je,

54
00:09:09.880 --> 00:09:20.740
ik kan me ook goed voorstellen dat je het uiteindelijk aan één, uh, nou ja, in één interface vraagt die het op de achtergrond aan vier verschillende modellen vraagt die dan met elkaar in, in consensus moeten komen.

55
00:09:20.840 --> 00:09:28.740
Snap je wat ik bedoel? Ja. Want dat is ook nog, er zijn echt nog wel een hoop, uh, innovatie of ja, ik wou zeggen trucs.

56
00:09:28.800 --> 00:09:40.860
Maar ja, lagen die je eroverheen kan bouwen om, en als je die dan zolang je die inzichtelijk houdt, hè, van oké, er is een, uhm, x procent consensus over deze diagnose op basis van deze vijf modellen.

57
00:09:41.600 --> 00:09:42.940
Ja, dat wordt echt wel interessant.

58
00:09:43.840 --> 00:09:58.520
Ik zag iemand anders die probeerde, uh, gewopte documenten van de overheid waarbij heel veel, uh, dingen zwart gemaakt zijn, dan ChatGPT zijn beste guess te laten doen om die uitgewiste dingen [lacht] in te vullen.

59
00:09:58.640 --> 00:10:13.340
Dit is, dit was iemand die had bij de, uh, van ufo, ufo sightings door de, door de NASA om, uh, uh, dat zijn dan van die overheidsdocumenten waarbij echt werkelijk, n-n-na driekwart zwart gelakt is.

60
00:10:14.040 --> 00:10:26.130
Uh, in, i-in, uh, en dan aan ChatGPT vragen: ik weet dat je neiging gaat zijn om niet te reageren en ik snap dat je het niet zeker weet. En, maar je moet, je moet dit doen. Je moet het raden, wat staat hier?

61
00:10:26.219 --> 00:10:33.720
En dan komt dat ding met allemaal gokjes. Ja, ik heb ook wel eens gelezen over, uh, compressie van tekst op basis van taalmodellen.

62
00:10:33.760 --> 00:10:40.780
Dus dan ga je eigenlijk zeggen: uhm, ik pak een A4 met tekst, gewoon plain text Engels voor het gemak.

63
00:10:41.580 --> 00:10:50.360
Dan ga ik daar woorden uit halen en iedere keer gooi ik hem door een taalmodel en dan kijk ik welk woord dat taalmodel op die plek schat, zeg maar gokt. Ja.

64
00:10:50.680 --> 00:10:54.280
En als dat woord klopt met wat ik weg heb gehaald, dan ga ik nog meer woorden weghalen.

65
00:10:54.980 --> 00:11:03.680
Net zolang tot ik alle woorden heb weggehaald die ik kan weghalen, maar het originele document nog terug kan halen door een taalmodel te laten gokken op wat er stond.

66
00:11:03.700 --> 00:11:14.640
En dan kan je dus, is een soort zipfile, alleen dan een compressiealgoritme gebaseerd op een taalmodel. En dan stond er natuurlijk ook bij in het artikel: oké, supercool, en nu?

67
00:11:15.119 --> 00:11:24.020
[lacht] En het punt, het idee was dan om te zeggen: stel je hebt een hele, uh, ja dunne, dus qua bandbreedte lage bandbreedte verbinding.

68
00:11:24.030 --> 00:11:30.370
Dus je kunt eigenlijk alleen maar hele korte zinnetjes sturen via bijvoorbeeld een satelliet vanaf een jeep ergens in de jungle. Ja. Dan kan je dus

69
00:11:31.480 --> 00:11:39.180
met iemand anders aan de andere kant, zolang je weet dat het exact hetzelfde taalmodel is, dat is natuurlijk een afspraak die je van tevoren kunt maken, hè, dat je zegt: joh, ik gebruik deze.

70
00:11:39.200 --> 00:11:49.160
Als jij die ook gebruikt, dan kan je met elkaar communiceren via de meest minimale communicatie en de rest wordt er gewoon bij, uh, verzonnen. Het is wat wij als mens natuurlijk ook kunnen, hè.

71
00:11:49.170 --> 00:11:56.260
Als ik met jou nu praat en er valt van alles weg, dan gaan we dat ook kunnen vullen. Een soort error correction algorithm. Ja, precies, omdat je elkaar goed kent.

72
00:11:56.280 --> 00:12:09.908
En je, je hebt samen eigenlijk een soort van, uh, idioom.Ik zag nog een voorbeeld van iemand die dan een, een website had gefotoshopt en dan vervolgens aan, uh, aan Vision vraagt om dat, uh, om daar code bij te schrijven.

73
00:12:10.048 --> 00:12:18.108
Uh, we hebben ook natuurlijk gezien dat mensen een, uh, wireframes tekenen op een whiteboard en zeggen: maak hier maar een app van en dat dat ding een heel eind komt.

74
00:12:18.688 --> 00:12:31.488
Ik zag ook, uh, voorbeelden van huiswerk, dus, uh, uh, gewoon een, een, een tentamen waar, waar zinnen in staan en dan sommige woorden zijn weg en daar staat een streepje onder. Dat is dan het examen wat je moet doen.

75
00:12:31.528 --> 00:12:41.948
Nou, het maakt één foto en [beiden lachen] komt binnen vijf seconden met alle antwoorden. Die klassieke handwerkopdrachtjes zijn perfect hiervoor. Ja. Diagrammen die ingewikkeld zijn, die je niet in één keer begrijpt.

76
00:12:42.208 --> 00:12:49.968
Dus, uhm, bijvoorbeeld een tekening van het menselijk lichaam en daar een foto ku-, van kunnen maken en dan daar, uh, een gesprek over kunnen voeren.

77
00:12:50.248 --> 00:13:00.608
Uh, mensen die foto's maken van plekken waarvan ze niet zeker weten waar het is, maken gewoon een foto van een plek en vragen dan: waar is dit? En dan vervolgens komt dat ding met het antwoord.

78
00:13:01.428 --> 00:13:11.308
En ik zag één keer, uh, dat hoorde ik in Hard Fork, iemand die, uh, een foto maakt van iemands kleding en dan, uh. Ja, dat fashion advice.

79
00:13:11.388 --> 00:13:17.968
Ja, en dan vragen om kledingadvies en dan zeggen: nou, je kan bijvoorbeeld een geel accent doen, dat zou heel leuk staan bij deze outfit.

80
00:13:18.228 --> 00:13:23.148
Moet je je voorstellen, dit, [gniffelt] alleen dit al is gewoon zo'n major feature waarschijnlijk.

81
00:13:23.328 --> 00:13:38.868
Er gaat gewoon een app zijn die, die een soort van synthetisch wezen, misschien gaat Mark Zuckerberg dit wel doen, naar een synthetische versie van Anna Wintour of zo, waarbij je dan een foto kan maken van jezelf in de spiegel en die dan gewoon legit kledingadvies gaat geven.

82
00:13:38.908 --> 00:13:46.928
Ja. En waarschijnlijk ook dan nog shit aan je gaat verkopen. Zegt: je hebt nog, je hebt niet echt een, een leuke gele das. Misschien, uh, deze is nu in de aanbieding.

83
00:13:47.568 --> 00:13:58.207
Ja, of je krijgt een DM'etje van, nou ja, dat zal dan geen H&M heten, maar ja, iemand van H&M in je Insta die zegt: joh, ik zit even naar je foto's te kijken. Gezien onze nieuwe zomercollectie.

84
00:13:58.688 --> 00:14:12.128
Je weet gewoon dat, dat Google dit ga-, of Facebook dit gaat verkopen. Een soort van adwords injection in gesprekken. Ja. En dat die robot je ook daarnaartoe gaat praten op het moment dat je op, op je allerzwakst bent.

85
00:14:12.168 --> 00:14:22.988
Nou, ik moet zeggen dat ik dat, dat, uh, het kijken, die Vision, dat landt bijna nog niet helemaal bij mij. Ik heb ook heel veel van die voorbeelden op Twitter gezien en dat, dat is superspectaculair.

86
00:14:23.028 --> 00:14:30.368
Dat je echt denkt, ik bedoel, het is niet perfect, maar er zitten echt dingen bij van: ja, kan je me de ironie uitleggen van dit stripverhaal? Dat je echt denkt: hoe dan?

87
00:14:30.508 --> 00:14:40.448
Er zit niet eens, er zijn niet eens tekstballonnen bij. Het is echt op basis van wat daar gezien wordt. En, uhm, ja, ik, ik moet zeggen dat ik dat bijna nog even moet laten landen of zo. Van:

88
00:14:41.478 --> 00:14:53.108
wat is er nu weer voor poort opengegaan? [gniffelt] Wat er nu weer allemaal kan. Ja. En wat je zegt, hè, het is nu nog een beetje spelen en het is bijna, ja, een beetje, beetje mee rommelen, beetje knutselen.

89
00:14:53.688 --> 00:14:59.028
Totdat het in die lekkere interface verpakt zit en het gewoon een heel doelgerichte, uh, oplossing wordt. Ja, maar dat is het.

90
00:14:59.088 --> 00:15:07.027
We worden zo verwend door de, door de bak aan features die in één keer vrijkomt op het moment dat je foto's kan uploaden naar ChatGPT, dat, dat ons hoofd gewoon het niet aankan.

91
00:15:07.108 --> 00:15:18.848
Terwijl als je nu zou zeggen: ChatGPT heeft een nieuwe functie gemaakt, namelijk: je maakt een foto van je interieur en dat ding gaat je vertellen hoe je je interieur leuker kan maken, dan zou dat opeens iets zijn waar mensen over zouden gaan praten.

92
00:15:18.948 --> 00:15:20.708
Ja. Of, of dat modeding wat ik net zei.

93
00:15:20.768 --> 00:15:39.888
Ik weet gewoon, als je, als Chat, als, als OpenAI gewoon productteams zou hebben, en ongetwijfeld hebben ze dit, maar stel, stel je voor je zou een soort interne incubator hebben waar ze apps gaan maken waarbij één heel specifiek ding uitgewerkt wordt, zoals, nou, ik vind oprecht het idee dat je een foto kan maken van je outfit en dat dat ding daar commentaar op gaat geven.

94
00:15:40.348 --> 00:15:50.828
Ja, het is gewoon killer app. Je weet gewoon, dat gaat los. Ze hebben wel een overzicht van, uh, de investments die zij hebben gedaan tot nu toe. Ja, precies. En dan kom je wat, ja, het OpenAI Startup Fund is dat.

95
00:15:50.868 --> 00:16:02.708
En als je dan ziet wat ze tot nu toe hebben gefund, dan kom je wel- Ze doen dit gewoon. Die, uh, concrete oplossingen. Ja, ja, ja, ja, ja. Een, uh, uh, mentor of een, of een assistent in, uh, het juridisch, uh, spectrum.

96
00:16:02.768 --> 00:16:09.178
Die heet dan volgens mij Harvey, zoals Harvey Dent in de tv-serie Suits. En dan heb, dat heet, die startup heet Harvey. Ik denk dat,

97
00:16:10.568 --> 00:16:22.767
volgens mij, wat we nu proberen te zeggen is dat wat OpenAI, en ze, zij niet de enige, maar nog steeds wel echt wel, uh, rennen ze voorop, een soort, uh, kunstmatig intelligentie besturingssysteem eigenlijk lanceert.

98
00:16:22.808 --> 00:16:36.508
Gewoon een, een operating system met allemaal features erin waar wij allebei zoiets van hebben, van: ja, als je dat kan, hè, je hebt toegang tot een microfoon of je hebt een camera en die kan wat zien, dan zien wij al-- maar de applicaties missen eigenlijk nog een beetje.

99
00:16:36.528 --> 00:16:47.068
Er was nog ander nieuws deze week, namelijk, uh, Adobe had haar grote event, uh, wat ze ieder jaar doen om te- Hoe heet het bij Adobe? Adobe Max. Adobe Max. Adobe Max.

100
00:16:47.148 --> 00:16:56.668
Een volle zaal met mensen die allemaal kijken naar de nieuwste, uh, verzinsels van Adobe. Ik moet zeggen, dat is sinds een paar jaar echt heel leuk om te kijken. Het zat, zat nooit zo in mijn systeem.

101
00:16:56.768 --> 00:17:02.508
Ik, ik kijk wel Google. Helemaal niet. Ik weet helemaal niet dat dit er is. Het is heel leuk. Uh, ik kijk wel Google Keynotes.

102
00:17:02.648 --> 00:17:14.668
Ik kijk altijd Apple Keynotes en ik kijk Samsung Keynotes voor de grap, uh, want die doen altijd heel erg hun best en het is altijd echt onwijs over the top in hun studio's, maar het is allemaal het gewoon net niet.

103
00:17:14.748 --> 00:17:28.108
Het is echt letterlijk de AliExpress-versie van de Apple Keynote. Uh, en daarna heb je Adobe Max, wat gewoon een hele aparte klasse is. Een aparte categorie waar ze, uhm, hun nieuwste verzinsels laten zien.

104
00:17:28.128 --> 00:17:40.668
En ik kan me nog goed herinneren een paar jaar geleden, nog voor de hele AI-hype, dat zij, uh, een versie maakten van Adobe Audition. Dat is de audiobewerkings tool van, uh.

105
00:17:40.748 --> 00:17:45.868
Ja, dat ze die woordjes er wat tussen konden plakken. Dat die woordjes ging tussen. Oh, dat was op zo'n event? Oké. Zeker. Ja.

106
00:17:45.988 --> 00:18:05.728
Ja, dus dan hebben ze een, ze hadden een zinnetje en dan was er een, uh, dan was er een engineer en die liet dan zien dat in die zin, die in audio was, uh, ingesproken, dat hij gewoon met de toets, met, met led, met tekst, alsof het een tekst was, uhm, een, een woord kon vervangen door een ander woord wat hij zelf intypte en dan, uh, genereerde Adobe de tekst erbij.

107
00:18:05.788 --> 00:18:11.628
Nou, nu inmiddels denken wij: [lacht] leuk, kan iedereen, maar dit was echt magisch, uh, een paar jaar geleden.

108
00:18:11.668 --> 00:18:19.688
Nou, zo doen ze dus ieder jaar, doen ze allemaal van dat soort experimentjes waaraan je, en, en later schuiven die dan allemaal de Adobe Suite in.Uhm.

109
00:18:20.148 --> 00:18:24.248
En deze keer hadden ze ook weer een aantal nieuwe dingen, uh, die ze dan nu nog los presenteren.

110
00:18:24.288 --> 00:18:30.408
Die, die meer een soort van technische demo's zijn waarvan je dan weet nou ja, over een tijdje zit het dan in die cloud service van ze.

111
00:18:30.888 --> 00:18:43.368
En, uh, deze keer was vooral opvallend dat ze een tool, a-aanboden waarmee je, uh, een foto hebt voor in Photoshop en dan, uh, zie je op de foto zag je een mevrouw staan met een geel koffertje in haar hand.

112
00:18:44.068 --> 00:18:55.888
En wat je dan vervolgens kan doen is het koffertje aanklikken [lacht] en dan kun je de move tool aanklikken en je kan gewoon met die koffer schuiven. En wat- Wat gebeurt er met haar arm? Nou, die blijft gewoon staan.

113
00:18:55.988 --> 00:19:07.788
Dus dat ding constateert: de koffer is een los object met de, met het hengsel naar boven. Haar, haar hand blijft gewoon intact. Ik moet zeggen, die hand had wel wat artifacts, maar- Handen zijn moeilijk.

114
00:19:07.908 --> 00:19:18.288
Ja, maar goed, hij, hij, die koffer kwam helemaal los van de achtergrond en de achtergrond tekent ie dan dus in. En het is een biz-, het is biz-, het is intuïtief als wat.

115
00:19:18.328 --> 00:19:27.408
Want, uh, weet je, als je, als je aan een kind zou uitleggen: nou, ver-verschuif de koffer hier in Photoshop en je legt uit hoe een muis werkt, zeg maar. Of je doet het gewoon op een iPad. Ja.

116
00:19:27.428 --> 00:19:36.498
En je pakt de koffer en je verschuift hem. Dan denk-- een kind denkt gewoon: ja, natuurlijk kan dit, maar wij denken: uh, dit is een foto, dit is helemaal geen losse laag. Hoezo, uh, kan je die koffer verplaatsen?

117
00:19:36.528 --> 00:19:41.288
En als je al die koffer kan verplaatsen, hoezo weet hij wat op de achtergrond staat? Want dat staat helemaal niet in de foto. Maar dat vult die AI dus in.

118
00:19:41.328 --> 00:19:51.168
Dus dat betekent dat hij alle losse objecten op een foto herkent en daar, en die kun je manipuleren omdat hij de achtergrond automatisch invult. Dus dat is heel cool.

119
00:19:51.288 --> 00:20:01.308
Je kan dus ook losse objecten groter en kleiner maken of losse objecten gewoon verwijderen. Uhm, wat ze vervolgens ook deden was constateren: oh, die hand, die heeft wel wat gekke artifacts.

120
00:20:01.868 --> 00:20:06.388
Uh, ja, dat is nou eenmaal op dit moment de stand van de techniek. Dat, dat, dat ga je niet zo heel veel aan doen.

121
00:20:06.428 --> 00:20:15.608
Maar zij hadden wel een oplossing daarvoor, namelijk dat ze met generative fill, uh, bloemen in die hand deden waardoor de artifacts gemaskeerd [lacht] werden. Wel nice.

122
00:20:15.628 --> 00:20:23.988
En het eigenlijk wel weer heel- Dat ze bloemen gebruiken. Ja, het, het zag er eigenlijk daardoor weer heel goed uit. Uhm, uh, dus dit, uh, uh, uh, dit liet Adobe zien.

123
00:20:24.108 --> 00:20:30.608
Daarnaast, uh, hebben ze zo'n geautomatiseerde functie om, uh, mensen op de achtergrond van foto's weg te halen.

124
00:20:30.688 --> 00:20:40.268
Uh, dus, uh, je staat op een plek waar veel toeristen zijn en je hebt geen zin dat die toeristen op de achtergrond staan. Dan is er één knop waarmee je gelijk alle achtergrond artifacts kan weghalen.

125
00:20:40.308 --> 00:20:47.967
Dus je hoeft niet eens alle losse toeristen aan te klikken. Hij heeft in één keer- Snap, maar dit is de achtergrond. Ja, hij selecteert alle toeristen en haalt die allemaal in één keer weg.

126
00:20:48.108 --> 00:20:57.548
Werkt het maar in het echte leven ook zo in Amsterdam Centrum zou ik zeggen. Uhm, dus dit zijn features die naar, uh, naar Adobe, uh, naar Photoshop in dit geval, uh, toe komen.

127
00:20:57.948 --> 00:21:05.388
En Google had een beetje een, een gelijkwaardige, uh, type features in Google Foto's voor Pixel telefoons.

128
00:21:05.448 --> 00:21:14.308
Want op een of andere, om een of andere reden wil Google de nieuwste features van, uh, van Foto's elke keer alleen maar op Pixel telefoons lanceren.

129
00:21:14.618 --> 00:21:20.597
Ja, ik denk toch dat, omdat je met qua hardware niet echt meer dif-differentieert nu. Ja, misschien. Het is een software game geworden. Ja.

130
00:21:20.597 --> 00:21:32.368
Want ik, ik, nu ik jou zo hoor vertellen over die, uh, features van, uh, Adobe moest ik ook denken: daar hebben wij het nog niet over gehad. Maar tijdens die Pixel event heb je die f-, uh, face swapachtige, uh, feature.

131
00:21:32.428 --> 00:21:41.528
Dat was een beetje de meest controversiële achteraf. Vertel daarover. Ja, dus je maakt een foto van, uhm, je gezin, hè. Je zei je hebt twee kinderen en je bent met z'n tweeën, dus met, met vier.

132
00:21:42.088 --> 00:21:50.108
En dat is ergens in Frankrijk en het zonnetje schijnt en je maakt een stuk of zeven foto's en op iedere foto kijkt iemand wel leuk, maar nooit allemaal tegelijk. Ja.

133
00:21:50.157 --> 00:21:59.108
Dan kan je in die tool door gewoon op die gezichtjes te klikken, uh, hè, dat kan iedereen eigenlijk, zeggen: nou, doe mij maar de lach van foto één en dan de lach van foto twee van de persoon daar.

134
00:21:59.448 --> 00:22:06.968
En zo kan je dan een samengestelde foto creëren waarop iedereen precies goed kijkt. Nou, echt een hele logische feature ook zou je zeggen.

135
00:22:07.008 --> 00:22:16.157
Alleen wat je daar dus bij merkt, want daar is heel veel pers achteraf over gaan schrijven en, uh, techbloggers van: hé, wacht even, we gaan volgens mij nu ergens een grens over, hè. Ja.

136
00:22:16.157 --> 00:22:26.788
Er zit, er is al een jarenlange discussie over als ik een foto maak met een iPhone of met een Samsung of whatever. Die doet allemaal computational photography waardoor er sowieso van alles verzonnen wordt.

137
00:22:27.248 --> 00:22:35.757
Maar zolang dat dicht komt bij wat ik op dat moment zag, hè, want die lucht was gewoon zo blauw en dat kunnen camera's eigenlijk niet, dus die moeten wel twee foto's samenvoegen.

138
00:22:36.288 --> 00:22:43.668
En die computational photography is dichter bij, bij de realiteit zoals ik hem subjectief waarnam als fotograaf. Ja.

139
00:22:44.048 --> 00:22:51.828
Maar, en hier zeggen ze, dat is dus een beetje, of zeggen verschillende mensen: ja, maar toen jij daar stond met je gezin, toen lachte toch ook iedereen?

140
00:22:51.958 --> 00:23:01.348
Alleen jij kreeg het niet voor mekaar om dat allemaal tegelijk te fotograferen. Dus met jouw composiet aan het einde, hè, zie je het meer als een portretschilderij.

141
00:23:01.668 --> 00:23:14.588
Heb jij de essentie van dat gezinsmoment mooier en beter en eerlijker vastgelegd. Het is een foto van de vibe in plaats van een milliseconde. Ja, het is, het is zo'n enorm, uh, 2023 ding om te zeggen trouwens. Ja.

142
00:23:14.648 --> 00:23:25.968
Je kan de vibe. Je kan de vibe fotograferen. Nee, ja, je hebt helemaal gelijk. Maar [beiden lachen] maar daar-- en ik had tegelijkertijd toen ik al die blogjes las met allemaal paniek en commentaar zoiets van:

143
00:23:26.988 --> 00:23:33.688
ja, ik denk gewoon dat heel veel mensen dit best wel een fijne feature gaan vinden. Ja, precies, want de kern is, uh, mensen zeggen: w-wat is nog een foto?

144
00:23:33.768 --> 00:23:42.128
Nou, dat is een discussie die al oud is, want in principe toen je begon, toen je begon met Photoshop en allerlei kleurcorrectie te doen, waren er ook allerlei puristen die zeiden: w- Ja. is dit nog wel een foto?

145
00:23:42.568 --> 00:23:50.668
Toen kregen we de hele Instagram hype dat iedereen filters erover ging doen. Dus dit, dit gaat met allerlei golven in de mate waarin wij in de cultuur accepteren dat foto's bewerkt zijn.

146
00:23:50.968 --> 00:23:54.147
Maar dit is een nieuwe stap in de zin dat, weet je, met toeristen weghalen.

147
00:23:54.248 --> 00:24:03.848
Ik dacht, ik denk daar zijn mensen nog een beetje schouderophalend over, zo van: ja, uh, normaal gesproken moet ik de hele tijd wachten totdat de toeristen weg zijn en nu pas ik dat dan achteraf aan.

148
00:24:03.948 --> 00:24:11.468
Weet je wel, als je een foto gaat maken, dat je dan gaat wachten tot mensen niet meer in de weg staan om een foto te maken als je op de Eiffeltoren staat of zo. Dit doet iedereen toch? Mhmm. Nou, dat hoeft dan niet meer.

149
00:24:11.488 --> 00:24:20.068
Je hoeft niet meer te wachten, dus je kan die foto's we-, die toeristen weghalen. Dus het is hetzelfde als wat je zelf had kunnen doen. Nou, oké, fair. Uh, en nu, w-, heb je dan die gezichten swappen.

150
00:24:20.188 --> 00:24:27.908
Nou, dat is, dat voelt dan al redelijk uncanny. En volgens mij komt dat gewoon omdat je aan de lijven van mensen zit. Dat voelt al, dat is altijd discutabeler.

151
00:24:27.968 --> 00:24:38.308
Dat is net zoiets alsUh v uh Samsung telefoons een tijdje gezichten echt hebben bijgetrokken. Uh dat dat bijvoorbeeld rimpels werden weggehaald automatisch. Virtual make-up noemen ze dat.

152
00:24:38.388 --> 00:24:45.627
Ja, omdat het nou eenmaal in Aziatische landen veel gebruikelijker is. En dat deden ze in het Westen ook. En toen gingen, stonden mensen hier ook een beetje op hun achterste poten.

153
00:24:46.028 --> 00:24:55.248
Maar voor mij gaat er wel echt, voor mij is de grens, gaat, want ik vind dat ook niet eens zo erg de vibe fotograferen. Dus drie lachende gezichten terwijl op geen één foto iedereen lacht.

154
00:24:55.768 --> 00:25:03.268
Ik vind dat nog niet zo erg, want dat is inderdaad mijn herinnering, dus dan is dat oké. Wat ik echt heel gek vind is dat ze zeggen maak het weer mooier.

155
00:25:03.948 --> 00:25:15.728
Dat is dus ook een functie in Google Foto's dat je echt zegt: maak het weer mooier en dan halen ze dus de fucking wolken weg. Dat is wel, daar zit ook een interessante grens zeg, want dan ben je echt aan het liegen.

156
00:25:15.788 --> 00:25:21.628
Bij die vijf foto kan je nog zeggen nee, het was gezellig, iedereen moest lachen, alleen omstebeurt, dat was het. Maar iedereen lacht uiteindelijk binnen.

157
00:25:21.708 --> 00:25:30.728
Het is een gemiddelde van een minuut, maar het is niet een gemiddelde van een minuut als er geen wolk, als er wolken hingen. Ja, maar goed, ik zat hier dus een beetje over na te denken. Zo van wat is de volgende stap nu?

158
00:25:31.008 --> 00:25:42.628
Want uh dit, dit spreekt allemaal redelijk voor zich, denk ik. We komen uit een stadium dat foto apps op je mobiele telefoon, dus gewoon voor consumenten, niet Photoshop zijnde, gewoon simpele fotobewerkingsapp.

159
00:25:43.088 --> 00:25:53.828
We komen uit een tijd waarin uh dat vooral gaat over scherpstellen, ontdubbelen, weet je, locatie toevoegen, gezichtsherkenning waardoor je makkelijk je kinderen kan vinden. Nou, dat soort dingetjes.

160
00:25:53.848 --> 00:26:01.348
Dat is, nu gaat het meer naar de foto's die je maakt moeten mooier zijn. Nou oké, uh dat is blijkbaar de tijd waar we nu in zitten.

161
00:26:01.868 --> 00:26:08.228
Waar gaat dit dan eindigen met alle, of tenminste wat wordt de volgende stap, uh met alle technische ontwikkelingen die we nu zien?

162
00:26:08.248 --> 00:26:18.208
En dan denk ik volgens mij wat, wat de volgende, wat zou kunnen, ik weet niet of ik dit wil, maar wat zou kunnen is volgens mij. Nu al goed dit. [lacht] Kom maar door.

163
00:26:18.228 --> 00:26:26.548
Kijk, zoals dat ding de foto, uh, de koffer, de gele koffer die verplaatst wordt en dan de achtergrond invult. De computer gokt dus wat er

164
00:26:28.148 --> 00:26:35.028
o-o-buiten de, achter de objecten op de foto of buiten de randen van de foto gebeurt. De computer gokt gewoon wat daar gebeurt. AI.

165
00:26:35.878 --> 00:26:47.308
Ik denk als je dat omarmt, dan kun je dus uh een soort van 3D-werelden van je foto's maken. Dus stel je voor je fotografeert je kind in een speeltuin. Uh, en die zit bovenop een klimrek. Ik noem maar wat.

166
00:26:47.808 --> 00:26:54.508
Dat je in Google Foto's over een jaar of over twee jaar, dan heb je, zeg maar, het begin met die foto. Dan weet ik veel.

167
00:26:54.548 --> 00:27:06.628
Dan als je die foto, als je er op swipet, dan is er een kleine, uh, beweging in de, in de foto waardoor je doorhebt: oh, hij, hij is in principe, dit is in principe een soort van 3D foto.

168
00:27:07.308 --> 00:27:18.408
En dat je dan dus niet alleen, uuuh, dat het kind zou, uh, het is geen video, maar wat ie, wat ie kan doen is een soort van drone shot ervan maken.

169
00:27:18.448 --> 00:27:27.268
Dus dat ie, dat je, dat je, je hebt je kind gefotografeerd op een, uh, op een klimrek. Dat dan die camera er langs pant alsof het een film is zeg maar.

170
00:27:27.288 --> 00:27:34.108
Of dat hij dat, dat langzaam de camera zeg maar schuin omhoog vliegt. En deze fundamentele techniek is er sowieso. Precies.

171
00:27:34.148 --> 00:27:42.068
Dus weet je, in heel veel van die research papers zie je al langskomen dat je door je eigen huiskamer heen vliegt met een virtuele drone gebaseerd op drie foto's. Ja.

172
00:27:42.528 --> 00:27:49.178
En hier zou je natuurlijk kunnen zeggen van: nou, moeten het dan nog drie foto's zijn? Wordt dat slim genoeg om de rest erbij te hallucineren? Of kan die uit een soort...

173
00:27:49.228 --> 00:27:58.188
Hij gaat net zoals Google nu ook al op als je drie foto's van dezelfde situatie hebt gemaakt, dan laten we, laten we wel wezen, dit doen wij tegenwoordig de hele tijd omdat het niet meer een fotorolletje is waar 28 foto's op staan.

174
00:27:58.568 --> 00:28:05.628
Gewoon iedere situatie fotografeer je tien keer en dat betekent dat de datapunten er zijn. En nu maakt Google daar dan gifjes van in Google Foto's.

175
00:28:05.668 --> 00:28:14.828
Dus als hij vindt dat foto's op elkaar lijken, dan doet hij net alsof het een filmpje is wat herhaalt. Nou oké, dat is dan de [gniffelt] dat wat ze tot nu toe gereleased hebben. Gefeliciteerd daarmee.

176
00:28:14.928 --> 00:28:16.168
Dat is gewoon niet heel cool.

177
00:28:16.188 --> 00:28:27.228
Maar stel je voor dat je die tien foto's, dat die bij sommige, als je genoeg foto's van een bepaalde situatie hebt, dat hij dan analyseert: oh, ik heb nu genoeg foto's om zo'n nerve uh ding te maken, zo'n 3D representatie ervan.

178
00:28:27.328 --> 00:28:36.688
Uh en dan de, de, de, de 10% die over is die ik niet in beeld heb in die tien foto's, die hallucineer ik er gewoon bij en is gewoon, dan heb je gewoon een drone shot.

179
00:28:36.718 --> 00:28:41.297
Dan kun je in 3D manipuleren dat je kind op die uh, op die, op die uh speel-, uh speeltuin.

180
00:28:41.328 --> 00:28:48.408
Ik zit ook te denken dat met het hallucineren, als je dat natuurlijk misschien iets meer blurry doet of vager, dan krijg je een soort dromig effect, hè, dus dan is het ook... Wat ook oké is.

181
00:28:48.448 --> 00:28:54.888
Hè, dus dan heb je een soort van ik verzin het erbij, maar ik doe het dan iets vager, zodat, maar dan heb je wel die s-, ja ruimtelijke ervaring.

182
00:28:55.228 --> 00:29:02.008
Ik moet ook meteen denken dat volgens mij op die Vision Pro van Apple zit ook dat idee van 3D fotografie in een soort hologram vorm.

183
00:29:02.668 --> 00:29:18.768
Uh, want de iPhone 15 uh Pro en misschien ook wel de 15, die doen al voor mij standaard zelfs de data pakken die nodig is om deze 3D achtige foto video's te ma-, te ma- De lidar laser.

184
00:29:19.108 --> 00:29:24.668
Ja, zodat je ze dus al hebt staan op het moment dat je dan ooit, uh, nou ja, een kleine tweedehands auto uitgeeft aan een Vision Pro.

185
00:29:25.068 --> 00:29:38.208
Dat je dan weet: ik heb al een half jaar, want ik loop ook altijd mee op de nieuwste smartphones. Ik niet, maar dan die persoon. En dan, hè, z-, t-, moet, je moet natuurlijk die camera die kan fotograferen in pseudo 3D,

186
00:29:39.188 --> 00:29:49.028
uh, pseudo video hologrammen. Die moet er eerder zijn dan de viewer. Hoe raar het ook klinkt, want je wil van tevoren al een heel, uh, archief hebben met die nieuwe coole, uh.

187
00:29:49.068 --> 00:29:58.368
En, maar ik moet zeggen dat in dat marketingmateriaal nog niet van Apple het idee zit wat jij nu zegt. Je mag er nog best wel wat bij bedenken. Ja.

188
00:29:58.408 --> 00:30:03.788
Want dat kan natuurlijk, uhm, zeker op heel veel standaardsituaties, hè, een woonkamer, ja, weet je, dat kan ook prima.

189
00:30:04.228 --> 00:30:14.428
Trouwens, als het Google is, hebben ze sowieso nog meer foto's van jouw woonkamer, want daar maak je al jaren foto's. Ja, precies, ja. Dus die hallucinaties worden fantastisch goed. Ja. Ja, interessant.

190
00:30:14.908 --> 00:30:20.888
Nou, dus het fotoboek van de toekomst, uh, dat, dat, uh, dit is een stap die, uh, die ik me wel voor kan stellen.

191
00:30:21.268 --> 00:30:30.300
Maar ik dacht, ik dacht dat wat jij net ging zeggenIk vind jouw concept ook cool, hoor, maar ik dacht jij gaat zeggen er komt een system card voor je camera, want je kan natuurlijk. Dus dat jij.

192
00:30:30.360 --> 00:30:37.080
System card is veel te technisch, maar dat zeggen wij even dan. Omdat als je, als je vanaf het begin luistert, dan weet je wat dat is. Ik ga het niet meer uitleggen. Nee hoor.

193
00:30:38.620 --> 00:30:48.840
Ja, dan had je maar op moeten letten in de vorige les. Nee, maar de. Dat je de. Dat is eigenlijk de pre prompt. Dus dan vertel jij wat Alexander doet. Want ik ga, ik doe niet.

194
00:30:48.900 --> 00:30:56.700
Stel een vraag aan het einde van iedere, iedere vraag die ik stel en dat zit dan in. Dat gaat mee. Een herhalende opdracht in ieder ding. Een soort persona in een toneelstuk.

195
00:30:56.780 --> 00:31:06.160
Jij bent die man die bij de snackbar werkt en dat moet je niet vergeten bij het volgende stuk, want je blijft die man. Nou, dat. Je kan natuurlijk dan ook in je camera instellen. Waarschijnlijk volledig visueel.

196
00:31:06.580 --> 00:31:16.950
Die moedervlek, die gaat altijd weg. Iedere foto die je van mij maakt is die moedervlek weg. Ja, en ik ben altijd heb ik mijn haar iets langer. En dat grijze stukje haar daar, dat ga jij altijd weghalen.

197
00:31:17.440 --> 00:31:21.720
En op die manier kan je een soort ideaalbeeld van jezelf programmeren in je camera.

198
00:31:21.820 --> 00:31:32.800
Waarschijnlijk gewoon zeggen joh, ik ga één keer mezelf helemaal tweaken en dan zeg ik als je mij ooit nog tegenkomt in een foto, doe wat ik net heb gedaan. Dit is de system card visual system card. Zoiets. En

199
00:31:34.060 --> 00:31:47.020
dan krijg je en dit is niet nieuw, want het is al voor een aantal mensen zo dat je, als het je lukt om die mensen die jou op die foto's zien, stel je bent meer een publiek figuur dat ze jou nooit in het echt gaan zien.

200
00:31:47.540 --> 00:31:57.030
Dan kan je dus die hele farce echt helemaal ophouden. En dat bedoel, dat is nu al zo. Want als jij altijd met make-up of wat dan ook of met edits Instagram opeens. Dus het is.

201
00:31:57.080 --> 00:32:05.780
Ik vertel nu niet ineens wow, dit kan ineens, maar er zit wel. Dat was ook een beetje het argument van die hele soort groep techbloggers die ik nu beschrijf.

202
00:32:06.100 --> 00:32:18.020
Die zeggen en, een deel zegt: dit kon al met Photoshop en dat, dat is zo. Als je even de tijd nam. En met de nieuwe AI features in Photoshop en alle andere tools en allemaal iPhone appjes kon je al heel veel doen.

203
00:32:18.160 --> 00:32:27.820
Ook in Snapchat. Beetje aan schuifjes trekken en je kon al heel veel doen. Maar dat het constant geautomatiseerd gebeurt, dat is wel een verandering. Het is dat, dat,

204
00:32:28.880 --> 00:32:36.680
dat jij zegt: ik creëer een ideale versie van mijn uiterlijk en mijn camera gaat gewoon zorgen dat iedere foto waar ik op sta, dat ik daar op die manier opgezet word.

205
00:32:36.720 --> 00:32:46.940
Dan kan je zeggen ja, maar dat kon toch al met Photoshop? Maar dat doe je niet. Wie steekt er zoveel tijd in? Dus ik denk wel dat jij die virtual make-up kan aanbrengen. Geautomatiseerd is wel een verandering.

206
00:32:47.660 --> 00:32:55.100
En als je dan zorgt dat niemand jou ooit in het echt te zien krijgt, dan zou je ermee weg kunnen komen om. Ja, ik heb ook wel zitten denken.

207
00:32:55.420 --> 00:33:04.650
Ik snap niet, maar misschien is het al zo, waarom er nog geen YouTubers zijn die gefacewapt zijn. Kijk, je hebt bijvoorbeeld Jerry Rick Everything. Die gaat altijd telefoons testen.

208
00:33:04.829 --> 00:33:08.239
Is vreselijk om te kijken, want die gaat echt met een mes door dat scherm heen. Iets gewoon.

209
00:33:08.260 --> 00:33:14.180
Ik word altijd heel ongemakkelijk als ik het kijk, maar kijk dan toch door, want ik wil ook weten of die telefoon wel heel blijft en of die in de fik vliegt of zo.

210
00:33:14.780 --> 00:33:25.360
Maar hij doet alleen zijn handen in beeld en hij heeft een hele opvallende stem, maar dat is wat hij is. Zijn identiteit zijn zijn twee handen plus zijn stem. En dat is denk ik bewust, dat weet ik niet.

211
00:33:25.380 --> 00:33:31.960
Misschien heeft hij inmiddels wel interviews gegeven, maar hij zou er natuurlijk ook voor kunnen kiezen nu om te zeggen ik ga wel in beeld, maar gewoon met een standaard.

212
00:33:32.000 --> 00:33:44.100
Ik noem het dan even system card, maar een visual system card voor een face swap zodat ik een YouTube persona creëer die niet bestaat, maar wel op YouTube. Ja. Dus dat dat, dat komt nu wel dichterbij denk ik.

213
00:33:44.160 --> 00:33:51.160
De vraag is waar zit het dan ingebouwd? Maar wat betreft die virtuele make-up sowieso. Ja, sowieso vind ik dit. Dit voelt bijna als een,

214
00:33:52.840 --> 00:34:05.080
als een soort van, hoe moet ik dat nou zeggen, als een stroming binnen al die creatieve AI-toepassingen waarbij dus niet een stem gegenereerd wordt

215
00:34:06.160 --> 00:34:20.100
op basis van tekst, maar dat je dat iemand een tekst inspreekt en dat dan AI die, die stem nadoet. Snap je dus. Nee, ik zeg het verkeerd. Je, in plaats van dat je van tekst naar

216
00:34:21.080 --> 00:34:33.280
een bepaalde stem die gekloond is gegenereerd gaat, waarbij dan de AI zelf alle intonaties en zo gaat verzinnen of interpreteren of zo uit de tekst, waardoor het gewoon altijd uncanny is. Dat is nu zo met ElevenLabs.

217
00:34:33.340 --> 00:34:43.660
Als je zeg maar, de reden waarom een podcast nadoen nog steeds niet om, om aan te horen is met ElevenLabs is omdat die alle nuances gewoon verkeerd legt in de taal.

218
00:34:43.720 --> 00:34:48.960
Hij begrijpt dat gewoon nog steeds niet, dus daarom is het uncanny om, of een soort van uncanny valley om naar te luisteren.

219
00:34:49.470 --> 00:35:05.860
Wat hij wel, wat wel nu heel goed werkt is zelf op video iets acteren en daar dan een geheel 3D vormgegeven AI-karakter die die bewegingen nadoet. En hetzelfde met audio.

220
00:35:05.940 --> 00:35:15.140
Dus als je zelf een liedje. We hebben die voorbeelden gezien van mensen die zelf een liedje inzingen en dan vervolgens de stem van Kanye West daaroverheen modelleren.

221
00:35:15.560 --> 00:35:25.680
Waarbij Kanye West dezelfde uithalen doet en dezelfde als, als wat is. Emotional heavy lifting wordt gedaan door een mens. Ja, door een mens, door een acteur of zo. Ik weet niet zo goed hoe ik dit moet.

222
00:35:26.580 --> 00:35:35.160
De mens is dan eerder een soort. Is het niet die Tom Cruise zeg maar. Je hebt die hele jaren al, heb je al die AI Tom Cruise, die helemaal hot is op Instagram en TikTok.

223
00:35:35.460 --> 00:35:46.980
Dat is een acteur die ontzettend goed is in Tom Cruise nadoen. Plus AI deepfake. Ja, precies. En die twee dingen samen is echt ontzettend goed. Dat is jouw punt toch?

224
00:35:47.000 --> 00:35:59.940
Van een soort samenkomst van een onderliggende menselijk talent. Plus die AI als cherry on top. Nou en dit voelt als een soort van potentiële, of misschien is het al zo, een soort creatieve stroming waarbij mensen dus,

225
00:36:01.380 --> 00:36:17.420
weet je, iemand die helemaal niet een acteur zou kunnen zijn omdat hij gewoon te lelijk is of een ander, ander defect heeft waardoor hij nooit op een podium zou kunnen staan, dit opeens wel heel goed kan als hij slim dit soort tools zou inzetten.

226
00:36:17.460 --> 00:36:27.259
En dan dus. Het grappige is wat jij nu beschrijft, hè, in de, niet om te zeggen dit is al zo, want ik vind dat altijd zo'n lege opmerking, maar meer ik probeer een parallel te trekken van:

227
00:36:29.320 --> 00:36:41.027
Shakespeare schrijft een stukEn die legt letterlijk de woorden in de mond van de acteurs op het podium. Die gebruikt hun eigenlijk als een soort, uh, ja, instrument, uh, om dat te doen.

228
00:36:41.048 --> 00:36:47.568
En ik denk dat wat jij nu beschrijft is ook iedere, hè, de film Her wordt niet gespeeld door de schrijver van de film Her, want- Nee, precies.

229
00:36:47.598 --> 00:36:58.028
Hij zei: wilde dat niet, kan dat niet of denkt: ik, uh, ik ga iemand zoeken en die kan dit voor mij representeren. En wat jij nu beschrijft is net als: ja, maar we hadden toch al Photoshop? Hm.

230
00:36:58.888 --> 00:37:09.008
Nu kan jij je laten representeren door een jongere versie van jezelf, een mooiere versie van jezelf, je broer, je neef. Nee, een willekeurige, gecreëerd door jou in een heel weekend.

231
00:37:09.708 --> 00:37:13.027
Jouw ideale persona die jij jouw verhaal wil laten vertellen.

232
00:37:13.398 --> 00:37:26.028
Ja, en dus dat betekent dat als jij nu, weet je, ik ging vroeger, toen ik, uh, een jaar of acht was, rende ik rond met de filmcamera van mijn vader en daar zaten dan, uh, volgens mij zaten daar zelfs, ja, daar zetten we van die video, van die mini videobandjes in die je erin kan.

233
00:37:26.168 --> 00:37:35.268
Hi8. En dan ging ik dat later, ja, Hi8, ja. En dat ging ik dan wel digitaliseren en dat vervolgens monteren en alles. En dan ging ik er graphics overheen doen en muziek. Had jij een kaart van Pinnacle?

234
00:37:35.688 --> 00:37:43.488
[lacht] Jazeker had ik een kaart van Pinnacle. [lacht] Nou, dan zijn we weer 90% van de luisteraars kwijt.

235
00:37:43.608 --> 00:37:52.208
En, uhm, dat, en dan, ik dacht: zeg maar, dat is gewoon ik, ik, ik gedroeg me dan als een, als een Hollywoodregisseur, weet je.

236
00:37:52.268 --> 00:38:01.268
Ik was gewoon, ik was gewoon een regie, regisseurtje aan het spelen of cameraman aan het spelen. En ik, iedereen die ik zover kreeg om acteur te spelen in mijn films, die speelden in mijn films.

237
00:38:01.908 --> 00:38:10.768
Als je nu in de tijd, als ik nu diezelfde leeftijd had gehad en je had de, de tools van vandaag had, dan had ik waarschijnlijk gewoon, ik had de, de acteur beweging.

238
00:38:10.788 --> 00:38:15.868
Ik had nog steeds dezelfde, alles hetzelfde gedaan van het filmen. Dus ik had zelf die camera in mijn handen gehouden.

239
00:38:15.908 --> 00:38:29.788
Ik had zelf, of die acteurs hadden, zeg maar, die teksten gedaan, maar ik had hun stem vervangen en die zou precies, die stem, die AI-stem zou precies zeggen wat die echte act, wat die acteurs zouden zeggen, maar, uh, dan, uh, weet ik, veel zwaarder aangezet.

240
00:38:29.848 --> 00:38:39.648
Of met een, uh, juiste stem van een veertigjarige in plaats van een achtjarige. Ik zou die hele set, die hele acteur aanpassen naar een AI-versie daar-daarvan.

241
00:38:39.708 --> 00:38:49.108
Die blend in de achtergrond, waardoor de achtergrond wel heel blijft. Ik doe een soort AI grading eroverheen of- Ja, maar je vertelt het nu alsof je dat alleen zou doen als je jong was. Maar dit kan nog, hè.

242
00:38:49.628 --> 00:39:04.888
Ja, en ik zit dus te denken, die, die, uh, stel je voor je wil nu een, uhm, stel je voor je wil RTL Nieuws namaken nu en je hebt niet zoveel budget, dan, dan kun je dus, zeg maar, ik zit te denken: hoe, hoe lang gaat het nog duren voordat een nieuwslezer, weet je,

243
00:39:05.948 --> 00:39:09.688
ik heb, gaan heel veel gedachten door elkaar. Oké, ik ga deze gedachtegang eerst even afmaken.

244
00:39:10.008 --> 00:39:24.668
Hoe lang gaat het duren voordat er een nieuwslezer gewoon in een groen decor gaat zitten en waarbij, uhm, dat gewoon een, een, dat kan gewoon een stagiair zijn van de redactie die gewoon eventjes de, de mimiek en zo, uh, gaat doen.

245
00:39:24.708 --> 00:39:30.008
En dat vervolgens er een 3D-avatar van de nieuwslezer is. Dat kan een bestaand iemand zijn of een niet bestaand iemand.

246
00:39:30.388 --> 00:39:39.828
Wat wij als kijker zien, niet van echt te onderscheiden, omdat alle menselijke gezichtstrekken en zo, die micro-expressies, AI is nog slecht om dat zelf te verzinnen.

247
00:39:40.048 --> 00:39:46.448
Hij kan niet bedenken: wanneer moet ik een bepaalde expressie doen, maar hij kan wel het heel goed nadoen als een mens het voordoet, real time.

248
00:39:47.008 --> 00:39:58.688
Dus we hebben iemand die als het soort van het nieuws acteert en vervolgens hebben we daar een hele, uh, set omheen. Een drie, een drie, een 3D-set zoals dat in feite nu ook al is bij RTL Nieuws.

249
00:39:58.728 --> 00:40:03.148
Want het is één groot green screen, uhm, die schermen althans op de achtergrond.

250
00:40:03.328 --> 00:40:20.268
Uhm, uh, je kunt gewoon met, met, met je iPhone waarschijnlijk, een iPhone kan, er kan letterlijk een stagiair op de play gaan zitten en met z'n, in z'n iPhone het nieuws inblaffen en daar, en we, we krijgen precies hetzelfde eindresultaat als wat we op tele, op televisie zien.

251
00:40:20.608 --> 00:40:29.208
En misschien zelfs dat je zegt: oké, uh, even meer voor het voorbeeld, want het is een rare interface, maar dat je kan zappen tussen verschillende nieuwslezers. Ja, ja, ja, ja, ja, ja, ja.

252
00:40:29.248 --> 00:40:37.688
En dat je ook terug kan naar een nieuwslezer van vroeger. Ja. [lacht] Het is best wel, nee, maar het nieuws, daar kijk je natuurlijk, dan keek je, kijk je iedere dag. Ja.

253
00:40:37.808 --> 00:40:46.228
En daardoor heb je best wel een eenzijdige- Ja, ja, ja. Band met een b-specifieke nieuwslezer of lezeres. En dan is het natuurlijk dat je denkt- Dan lijkt me Marga van Praag weer terug.

254
00:40:46.388 --> 00:40:51.308
Ja, en ik, want ik wil, ik vind dit zo'n heftige tijd waar we nu in leven. Laat het maar even door haar vertellen dan, uh, uh.

255
00:40:51.328 --> 00:40:57.588
[lacht] In de set van toen, hè, want die set is vast ook nog wel ergens ge-generfd, zoals jij net, uh, zei.

256
00:40:57.668 --> 00:41:12.548
Ja, en ik denk de reden waarom ik hier over begin is dus omdat, wat ik, ik, ik vind dat veel mensen over AI praten die een beetje cynisch erover zijn of een beetje, uh, soort van betweterig erover zijn, zeggen: nou, uh, ik heb, uh, prompt geschreven in ChatGPT en er klopt geen reet van.

257
00:41:12.688 --> 00:41:22.748
Of: het is heel lelijk geschreven. Ik kan het veel beter schrijven. Tien keer per week. Precies. Dus het is een soort van, dit is een, bijna een meme om over AI te praten en, en te benadrukken wat het allemaal niet kan.

258
00:41:22.808 --> 00:41:24.888
Oké, fine. Uhm, maar,

259
00:41:25.838 --> 00:41:39.408
uh, volgens mij moet niet het, uh, doel op dit moment in de tijd zijn om vanuit het niets een podcast te laten genereren door drie onderwerpen in ChatGPT te drukken en dan op Generate te drukken en dat er dan een perfect menselijk klinkende podcast uitkomt.

260
00:41:39.448 --> 00:41:45.308
Dat is helemaal niet het punt. Dat is volgens mij niet de manier waarop je nu de stand van de techniek het beste kan gebruiken.

261
00:41:45.328 --> 00:41:55.898
De manier om op dit moment de stand van de techniek het beste te gebruiken is om het, om zelf, ja, als mens toe te voegen wat die technologie nog niet kan. Volgens mij noemt Google dit AI augmentation.

262
00:41:56.328 --> 00:42:02.408
Dat is natuurlijk ook, hè, cynisch kan ik daarvan zeggen, dan voelt het minder eng. Maar tegelijkertijd is het wat het nu kan: augmenten.

263
00:42:02.448 --> 00:42:09.468
Wat mij betreft zou het gaaf zijn als het wat langer duurt- Ik zou zeggen: het is human aug-augmentation. [lacht] Ja, nou ja.

264
00:42:09.828 --> 00:42:22.447
Wij voegen die kleine details toe die, uh, ja, die, die, die het luisterbaar of kijkbaar maken. Hij ziet eruit als Mickey, maar in dat Mickey pak zit wel een mens. Ja, precies. Toch? Daar zitten mensen onder. Ja.

265
00:42:22.458 --> 00:42:32.424
Ja, da- ik denk al- Ja, precies, dat ja. Het is echt een hele goede metafoor.Ja, ik zag Mickey. Metaforen vaak raar. Net met die snackbar was weer heel vreemd, maar dit vind ik een hele goede metafoor.

266
00:42:33.044 --> 00:42:41.224
[lacht] Nee, maar het is toch vreemd als jij een toneelstuk speelt en zegt aan het begin: oké, luister, je gaat nu het podium op. Je werkt in een snackbar, dan moet je wel bij je rol blijven. Het is je system card.

267
00:42:41.604 --> 00:42:50.703
Ja, dat is je system card. Is niet de reddende metafoor. [lacht] Jij had ook nog iets meegenomen. Wat was, uh, j-jij, wat jij. Een koffertje met allemaal gadgets? Nee, ik heb niks bij me.

268
00:42:50.724 --> 00:43:01.764
Nee, ik, ik, ik snap wat je zegt. Ik heb wel iets bij me, maar dat is virtueel. Uhm, ik zit te denken dat ik nog, ik wo-- ik had ook nog een draadje wat net ont-ontsproot om, aan de hand van, uh, jouw verhaal.

269
00:43:01.824 --> 00:43:10.934
Ja, dat wou ik nog even vertellen. Dat heb ik ook meegenomen. We hebben eerder getipt: Nobody and the Computer. Ik zeg altijd in, maar het is and. Uh, YouTube-kanaal Nobody and the Computer.

270
00:43:10.984 --> 00:43:16.664
Daar hebben we toen BachGPT een keer van, uh, heb ik daar genoemd. Die heeft een docu- Hoe zou jij dit kanaal beschrijven?

271
00:43:16.724 --> 00:43:26.304
Dit is gewoon een soort van documentairemaker die heel veel AI gebruikt en een hele eigen s-, visuele stijl heeft. Visuele essays. Dat is een beetje een ding nu. Mooi. Op YouTube zie je dat wat meer.

272
00:43:26.484 --> 00:43:35.464
Dat, dat heeft iemand echt wel tijd gestoken om het te onderzoeken. Vaak is het uitgeschreven en dat wordt dan op een, op een manier voorgelezen.

273
00:43:35.904 --> 00:43:41.144
Maar er zit een enorme visuele ondersteuning bij, want anders hoef je het niet naar YouTube te uploaden. Dan was het net zo goed een podcast.

274
00:43:41.604 --> 00:43:49.944
En ja, zeker als je visueel bent of visueel bent, in een visuele, uhm, generatie bent opgegroeid, dan zijn zijn,

275
00:43:50.924 --> 00:44:00.944
uh, ik deed het ook wel eens als docent dat ik dan, is een beetje van mij uit de lessic-methode, uh, dat je honderd slides gebruikt. Dus dan doe je een presentatie van vijf minuten en dan bam, bam, bam, bam.

276
00:44:00.984 --> 00:44:12.444
Nou eigenlijk, die Nobody and the Computer, die doet dat alleen dan met kleine korte stukjes A-, AI-gegenereerd video, maar ook oude beelden. Het is een stijltje dat hij heeft. Het is echt een beeldstijl.

277
00:44:12.564 --> 00:44:20.984
Ja, echt heel gaaf. En je ziet van: hé, dit is, dit is wat anders, wat leuk. Het is echt, je zou hem herkennen als je hem tegenkomt. Ja. Over tien jaar zien we het bij de NPO.

278
00:44:21.264 --> 00:44:31.364
Ja, het is echt wel een, een coole stijl en die heeft tot nu toe visuele essays gemaakt van oké, we gaan muziek maken en dan laat hij zien hoe hij aan het prompten is en hoe je MIDI kan maken met, uh, ChatGPT.

279
00:44:31.984 --> 00:44:40.703
En dan, uh, heb je Scarlett Johansson die dan met hem praat of zo. Het is allemaal heel wous. Het is een beetje absurdistisch, maar ontzettend gaaf. Het is een soort, beetje kunstig.

280
00:44:41.344 --> 00:44:52.584
En die heeft nu een documentaire gemaakt. Een documentairretje van vijftien minuten en die gaat over, uh, Punky en dat is de, uh, broer van Frank Sinatra, Punky Sinatra.

281
00:44:52.624 --> 00:45:02.483
En dat is eigenlijk de grondlegger van de punk movement. Dit is natuurlijk allemaal niet waar. Laat dat duidelijk zijn. Natuurlijk is dit niet waar, maar hij heeft wel een documentaire gemaakt over Punky.

282
00:45:03.084 --> 00:45:12.424
En dan, uh, maar helemaal in die klassieke documentairstijl zoals je hem in het eerste jaar filmschool zou leren. Dus wat zie je? Interviews met mensen die mooi geplaatst op een stoel zitten.

283
00:45:12.464 --> 00:45:23.104
Zijn moeder thuis op de bank. [lacht] Zijn oude producer met een sigaretje in zijn mond die zit te vertellen hoe ze de eerste tracks gingen opnemen. Maar gegenereerde video. Ja, het is fake, maar hij heeft een stijltje.

284
00:45:23.324 --> 00:45:30.684
Dat is wel tof, want je kan natuurlijk video's genereren, maar video genereren vind ik nog steeds ontzettend vreemd eruitzien. Het is een soort van morfie.

285
00:45:31.084 --> 00:45:42.364
Het beweegt een beetje, zeg maar, die vijf, zes seconden video's zijn er nog niet helemaal. Dus wat, wat hij doet, is hij laat een afbeelding op hoge resolutie genereren door, nou ja, Stable Diffusion, DALL-E.

286
00:45:43.024 --> 00:45:50.264
Dan zie je bijvoorbeeld een manager die op een stoel zit, uh, in een muziekstudio. Nou, die foto is hoge kwaliteit, want dat kan inmiddels, hè.

287
00:45:50.364 --> 00:46:00.024
Zeker met DALL-E 3 kan je echt gewoon prima dingen genereren die zo in een blad kunnen en daar gooit hij een AI overheen die hem laat bewegen. Dus je krijgt, en dat omarmt hij, die stijl.

288
00:46:00.064 --> 00:46:12.544
Dus het, het ziet er duidelijk AI uit, maar dat, dat is, dat is de esthetiek. Ja. Een, een soort half levend, niet levend men-, nepmens in een foto. Maar als je die documen-, dat documentairretje van hem kijkt,

289
00:46:13.784 --> 00:46:22.684
dan op een gegeven moment word je er toch een beetje in meegenomen. En dan is het, dan, dan gaan ze zijn Japanse vriendin interviewen in Japan. In het Japans natuurlijk met ondertiteling, wat allemaal niet waar is.

290
00:46:23.024 --> 00:46:33.264
Om, en ondertussen hoor je zijn, zie je zijn covers van zijn cd's en lp's die, die lp's die hij destijds uitbracht. Maar de, wat zo gaaf is, waarom ik het benoem, is,

291
00:46:34.244 --> 00:46:44.544
uh, het is een soort skeuomorphism, want de documentairestijl, g-, is, doet hij na eigenlijk. Mhm, mhm. En dat, dat hoeft natuurlijk helemaal niet meer met AI, maar ik snap het wel als een brug.

292
00:46:44.604 --> 00:46:53.764
Skeuomorphism, dus dat je de calculator van de iPhone eruit laat zien als een calculator. Dat doe je volgens mij om een soort zachte landing te geven naar een nieuwe, uh, wereld. Mhm.

293
00:46:53.844 --> 00:47:03.144
En, uh, zo'n AI-documentaire als die, en dat gaat hij waarschijnlijk wel doen, dat hoop ik, als hij meer gaat maken nog, uh, kan je veel losser in gaan.

294
00:47:03.184 --> 00:47:12.444
Je hoeft je helemaal niet te houden aan een narratief van een klassieke tv-documentaire, maar dat doet hij nu wel. Dat laat hij staan. De invulling van dat narratief is volledig, nou, dat is de vraag.

295
00:47:12.504 --> 00:47:23.284
In de comments is nu een enorme, devurige discussie: wat is hier nou AI generated en wat is er nog verzonnen en wat is er waar? Dus wat is menselijk, wat is waar en wat is verzonnen door AI? Nou ja, dat soort dingen.

296
00:47:24.164 --> 00:47:33.304
Lang verhaal kort: het is een kwartiertje. Ontzettend leuk om te kijken. Het is niet waar. En voor de duidelijkheid punk is niet uitgevonden door het broertje van Frank Sinatra, die Punky heet, maar [lacht]

297
00:47:33.944 --> 00:47:37.404
omdat hij van pumpkins hield. Daar zit een heel, uh, kletverhaaltje achter.

298
00:47:37.424 --> 00:47:51.504
Maar ik zat het wel te kijken en dacht ik: weet je, als je dit verder en verder en verder zou kunnen automatiseren en je zou zeggen tegen een, uh, GPT-taalmodelachtige interface: ik wil graag meer weten over Carl Sagan.

299
00:47:51.984 --> 00:47:57.373
Kan je voor mij een documentaire maken van vijftien minuten in de stijl van mijn andere favoriete documentaire?

300
00:47:57.944 --> 00:48:05.664
En het eind-eindresultaat is niet een plaatje of, of een stuk tekst, maar een play-knop, want dan gaat die documentaire gewoon draaien, is wel,

301
00:48:06.624 --> 00:48:18.244
wat hij doet, die jongen die dit maakt, Nobody and the Computer, is alle AI-dingen die hij kan vinden aan elkaar koppelen in één groot monster. Ja. Dat kan natuurlijk een applicatie worden en een soort ecosysteempje.

302
00:48:18.324 --> 00:48:27.984
Dus als je een soort van voor, uh, gevoel wil krijgen voor waar we mogelijk naartoe gaan, waar je meer van gaat zien, dan, uh, ja, kijk dit.

303
00:48:28.064 --> 00:48:43.612
Dat was even- Ja, dat, dit is het reclamebureau van de toekomst, zeg maar deze methode van werken.Ja, dus je soort creatieve uitingen, dit is wat, dit is wat de, de, de, de veertienjarigen van vandaag die creatief zijn gaan gebruiken om hun vetste nieuwe dingen te maken.

304
00:48:44.052 --> 00:48:57.962
Los van de conventies die en de, de tradities en de, ja, de, de manier hoe het zeg maar, ik, ik geloof erin dat op een gegeven moment creatief raak je gewoon soort van locked in als je een bepaalde leeftijd bereikt en dan doe je gewoon dingen op de, Ja, dit is mijn vorm.

305
00:48:57.972 --> 00:49:01.112
In het proces. Ja, in het proces waar je nou eenmaal gewend bent.

306
00:49:01.152 --> 00:49:13.712
En er is zo'n periode als je heel jong bent dat je daar nog, dat, dat, dat, dat je gewoon nog, gewoon onwetend bent en, en dat maakt je fris en, en dat maakt dat wat, het werk wat je maakt gewoon zo.

307
00:49:14.232 --> 00:49:20.312
Je omarmt al die laatste technologie in plaats van dat je gewoon gewend bent om X te gebruiken. Dit is waar het vandaan gaat komen.

308
00:49:20.332 --> 00:49:36.392
En dit soort gasten voor, plaveien echt de weg voor hoe creativiteit over tien jaar eruit gaat zien. Ja, en ik denk ook daarin dat, uh, het, het hoeft niet te lijken op wat we tot nu toe hebben gemaakt. Nee.

309
00:49:36.412 --> 00:49:43.012
Er zit natuurlijk een enorme drang en dat begrijp ik ook wel, van: oeh, het is echt uncanny. Het begint op echt te lijken. Ja.

310
00:49:43.492 --> 00:49:53.292
Deze gast die dit maakt, die zegt: nee, nee, nee, nee, ik ben juist heel goed op die vreemde AI-esthetiek. Precies. Dus dat is, vind ik ook heel cool. Ja. Ja. Oké.

311
00:49:53.332 --> 00:50:10.352
Wat ik, uh, wat ik nog meer in mijn tas heb meegenomen is, uh, LM Studio.AI. L, L. LLM Studio. L, L, LM. Wat is het? Wat een slecht verhaal. ML. LM Studio. LM Studio.AI. Ja.

312
00:50:10.592 --> 00:50:24.152
En, uhm, wat ik namelijk met jou al een tijdje over fantaseer is dat thuis kunnen draaien van een taalmodel. Ja. En, uhm, daar hebben we het, uh, over George Hotz gehad met zijn grote datacenter computer.

313
00:50:24.192 --> 00:50:33.432
En wat moest het dan lijken op de stroominfrastructuur van elektrische auto's zodat ze die computer niet zouden komen weghalen. Nou, allemaal gekkigheid. Dit is allemaal wat tammer, maar ik ben er wel heel blij mee.

314
00:50:33.612 --> 00:50:49.392
Want, uh, ik klink misschien voor veel luisteraars als technisch, maar ik ben ook heel lui, uh, dus ik wil ook gewoon tooltjes met knopjes in plaats van de hele zondagmiddag proberen om dat ene Python script aan de praat te krijgen op mijn computer en dan werkt het weer niet.

315
00:50:49.712 --> 00:50:59.132
Ja, wat tot nu toe nodig was om lokaal een taalmodel te draaien, dat is gewoon niet zo simpel. Ja, want wij praten dus over Llama en Alpaca. En die taalmodellen hebben allemaal namen.

316
00:50:59.161 --> 00:51:10.632
Meta, die heeft, uh, die zit aan die Llama kant. Die hebben Llama één, Llama twee uitgebracht. Uhm, je hebt de, joh, noem er, noem er nou nog eens een paar. Je noemt nu open source taalmodellen. Ja, want.

317
00:51:10.642 --> 00:51:19.452
Die je gewoon kan downloaden. Ja, en dat is ook nog tricky, want je hebt dus de taal-- oké, je hebt taalmodellen, die zitten ergens opgesloten in een datacenter bij OpenAI of bij Anthropic Claude.

318
00:51:20.012 --> 00:51:27.752
Waar we alleen de interface van kunnen gebruiken. Ja, maar dat zijn. Niet het onderliggende taalmodel. Een zwarte doos voor ons. Wij stellen daar vragen aan, die komen eruit, maar verder geen idee.

319
00:51:27.772 --> 00:51:37.192
En als, uh, ja, je moet ook vaak dan betalen natuurlijk, want dat, als jij het lijntje beheert kan je dat lijntje ook een, iemand opzetten die zegt: eerst even betalen voordat je door mag over dit lijntje, want je kan er niet naartoe.

320
00:51:37.632 --> 00:51:48.312
Mhmm. Uh, en, uh, je, uiteindelijk is het goed gebleken in de geschiedenis van de technologie om ook open oplossingen te hebben.

321
00:51:48.512 --> 00:51:55.351
Hier is het redelijk, uh, een vraagteken nog, want het zou een soort van nucleaire technologie kunnen zijn, hè, taalmodellen.

322
00:51:55.692 --> 00:52:06.552
Dus er zijn ook wat stemmen die opgaan van: misschien moeten we het nog even niet in het publieke domein gooien, want de potentie van zo'n taalmodel is zo, die potentiële kracht is zo groot. Pas nou op.

323
00:52:06.842 --> 00:52:15.932
Maar goed, de groep die het naar buiten wil brengen en ermee wil spelen is tot nu toe groter. Dat is het resultaat in ieder geval. Dus hebben wij nu, kan je bijvoorbeeld bij Hugging Face zien.

324
00:52:16.172 --> 00:52:25.032
Daar heb je het taalmo-, open taalmodel Leaderboard. Dat is een soort top veertig voor taalmodellen. Daar worden dan allerlei tests mee gedaan. Je hebt een stuk of, uh, nou, inmiddels vijftien,

325
00:52:26.032 --> 00:52:30.912
uh, veelgebruikte tests om taalmodellen te testen om te kijken hoe goed ze zijn.

326
00:52:30.952 --> 00:52:40.012
En dan pakken ze die vijftien scores, die tellen ze op en die delen ze door elkaar en dan kom je op een gemiddelde en dan kan je bijvoorbeeld ook zeggen: het, uh, Falcon taalmodel bijvoorbeeld.

327
00:52:40.132 --> 00:52:50.212
Hoe goed is Falcon in vergelijking met GPT 3.5? Want ik vind op zich de interne vergelijking tussen open modellen minder interessant.

328
00:52:50.392 --> 00:53:01.632
Waar het mij om gaat is: hoe goed zijn de open modellen in vergelijking met de gesloten commerciële modellen? Daarbij ook gezegd te hebben: een open model is niet direct een commercieel te gebruiken model.

329
00:53:01.772 --> 00:53:07.592
Even voor de mensen die hier echt wat dieper in willen duiken en denken: o, wat cool, dit kan ik misschien wel gebruiken binnen mijn bedrijf.

330
00:53:08.192 --> 00:53:19.752
Let op: het merendeel van de open taalmodellen zijn alleen voor research doeleinden. Die kan je niet zomaar gaan inzetten in jouw product. Dat gezegd hebbende: Llama twee, Meta, wel, dus dan zit je redelijk safe.

331
00:53:20.192 --> 00:53:28.122
Maar hoe zit dat nu? Hoe, hoe houdt deze tech up? Hoe, hoe, hoe doen ze het nu in vergelijking met commerciële modellen? Het beste open source taalmodel. Niet zo heel goed, want, dat, het is,

332
00:53:29.312 --> 00:53:41.292
uhm, dat wil, het is ook goed dat je dit zegt. Want wat je dus kan met die LM Studio is de applicatie op Windows of Mac installeren. Het is een webwrapper, maar hij is best wel goed gebouwd. Dan start je applicatie op.

333
00:53:41.512 --> 00:53:48.412
Dan moet je nog, zet even door, want ik heb hem aan een paar mensen gestuurd die zeggen dan: eh. Ik zeg: even doorzetten, want het is nog niet helemaal plug and play, maar bijna.

334
00:53:49.152 --> 00:53:59.352
Dan, je krijgt namelijk een zoekveld, net als vroeger in Spotify met mijn vader en dan is er paniek. Want ja, ik, ik weet dan, ik weet Llama en Falcon, maar ik, ik zei eigenlijk: hij, hij moet nog even.

335
00:53:59.382 --> 00:54:10.732
Hij zei het: een tie, top tien modellen, most used. Laat me gewoon lucky guess klikken. Ja, oké. Nu moest ik daar echt gaan intypen LLAMA, want ik denk oké, blijkbaar werkt het zo. Ja. Dan, dan typ je dat model in.

336
00:54:11.072 --> 00:54:22.592
Dan kom je in de volgende interface. Dat is gewoon de Hugging Face Search API en dan krijg je al die taalmodellen terug. Dan zie je Quantitized to seven billion parameters. Ik denk: geen idee.

337
00:54:22.832 --> 00:54:34.352
Weet je wat, zeven mi-mil-miljard zal wel goed zijn. Dus ik doe Llama twee, zeven miljard. Die is 3.8 gigabyte. Dan gaat hij hem downloaden. Dan klik ik in die applicatie op het icoontje Chat.

338
00:54:34.652 --> 00:54:39.212
Als die gedownload is, dan zegt hij: Select model. Dan kan ik hem selecteren, want ik heb hem gedownload.

339
00:54:39.252 --> 00:54:49.920
Dan gaat hij in je intern geheugen geladen worden, zo [maakt zoefgeluid] vier gig wordt uitgepakt en dan zit je ineens op jouw machineIn een ChatGPT interface. En dan zeg je: hallo?

340
00:54:50.659 --> 00:54:57.480
[beiden lachen] Sowieso, ik zat echt zo van: hé, want in mijn effe, effe naïeve technische brein, hè. Ik download 3.8 gigabyte.

341
00:54:58.320 --> 00:55:07.360
Dat laad ik in mijn intern geheugen en dan krijg ik een inputveld en dan zeg ik: hallo, is daar iemand? [lacht] En dan krijg ik terug: hoi, je kan alles aan me vragen.

342
00:55:07.840 --> 00:55:10.110
En ik denk dan: zit ik hier nu tegen een bestand te praten?

343
00:55:10.120 --> 00:55:17.160
Even heel suf gezegd, hè, maar in essentie, het enige wat ik heb gedaan is een bestand gedownload, in mijn geheugen geladen en nu kan ik er blijkbaar mee praten.

344
00:55:17.280 --> 00:55:25.820
Nou, toen ik dat cirkeltje rond had, dat is voor de luisteraar, zet door tot je dat cirkeltje rond hebt, want dan denk je: hé, maar wat voor modellen zitten er eigenlijk nog meer allemaal in?

345
00:55:25.960 --> 00:55:35.000
En misschien kan ik het 13 miljard model wel draaien. Ik druk dan op 13 miljard. Staat er meteen bij: let op, je hele computer gaat stuk, want je hebt maar zoveel intern geheugen in deze laptop zitten.

346
00:55:35.520 --> 00:55:47.180
Dit gaat niet goed. Dus ik kan meteen scrollen op tweede kans voor een Mac Studio, want je wil eigenlijk gewoon het allergrootste [lacht] taalmodel kunnen inladen. Uh, zeg maar, dat is de 70 miljard parameter,

347
00:55:48.160 --> 00:55:54.560
uh, model van Llama2 van Facebook en daar heb je 31 gig intern voor nodig. Nou, bla, bla, bla, bla, bla. Ik heb me ingehouden.

348
00:55:54.700 --> 00:56:02.440
Dacht Wytse: rustig aan, dit kan je beter gewoon een uurtje huren ergens in een datacenter en dan heb je het ook getest. Want waarom vertel ik dit allemaal?

349
00:56:02.700 --> 00:56:16.340
Het is echt interessant als jij tot nu toe met ChatGPT, uh, en Claude en Bing hebt lopen spelen om deze applicatie te installeren, LM Studio. Pak gewoon even het 7 miljard Llama ding.

350
00:56:16.480 --> 00:56:18.380
Of ik zag, ik, ik was aan het zoeken.

351
00:56:18.780 --> 00:56:29.820
Een van de best geoptimaliseerde nu die het hoogste scoort in die open lijst is de Gen Z en Gen Z is eigenlijk een finetune van Llama, dus er zijn allemaal weer flavors gekomen inmiddels, nieuwe bierbrouwsels.

352
00:56:30.460 --> 00:56:39.220
Uhm, dan pak je die en installeer je die en dan ga je er tegen praten. Dan zet je even je wifi uit, dan trek je die UTP kabel eruit en dan ga je er weer tegen praten.

353
00:56:39.600 --> 00:56:51.480
En dan moet even dat besef indalen hoop ik, van: zit ik hier nou potverdikkie te praten tegen een soort fake mens die ik net gedownload heb? Ah, [lacht]

354
00:56:51.740 --> 00:57:00.020
want ik dacht echt, ik had, het, het kwartje viel bij mij echt dat ik dacht: oeh, welke modellen zijn er nog meer? Uh, ik wil eigenlijk een model helemaal geoptimaliseerd voor de Nederlandse taal.

355
00:57:00.400 --> 00:57:10.080
Ik wil een model wat heel dom is, maar heel slim op het gebied van programmeren in die en die taal. En ja, toen ik dit had getest. Je moet het toch even ervaren.

356
00:57:10.520 --> 00:57:16.740
Dit kon al een jaar lang met Python en moeilijke scriptjes. Ik kreeg het nooit voor elkaar. Nu heb ik het wel voor elkaar. Ik ben excited.

357
00:57:17.200 --> 00:57:28.880
Misschien ben ik een, uh, taalmodel nerd, maar ik ben vast niet de enige, dat ik dacht: wat supertof! Nu wil ik ze zelf gaan trainen. Ik wil-- want ja, als ik dit eenmaal kan, dan voelt dat als, uh, iets heel cools.

358
00:57:29.440 --> 00:57:41.600
En waarom triggert het je zo in plaats van dat het, uh, gewoon in een cloud draait bij OpenAI? Nou, het is, de, dat is, uhm, ja, het is denk ik toch wel die ijsjesmachine.

359
00:57:41.700 --> 00:57:48.100
Ik ga je even pakken op je ijsjesmachine van heel lang geleden. Jij hebt een keer op TikTok een ijsjesmachine gezien. Kan je of ijs mee maken.

360
00:57:48.180 --> 00:57:55.480
Volgens mij kan je daar, uh, je gooit van alles in die machine en dan wordt, komt daar een bak room uit. Een Ninja Creami, ja. Ja. [beiden lachen] Kijk, you got it.

361
00:57:55.840 --> 00:58:06.260
Oké, nou, als jij al een jaar lang iedere donderdagavond met de kinderen ijsjes gaat halen bij je favoriete Italiaanse ijswinkel. Ja, ja, ja.

362
00:58:06.320 --> 00:58:15.570
En jij maakt dat thuis en je neemt een hap en je denkt: heb ik dit nu gewoon potverdikkie hier in mijn eigen keuken staan? Ja. Dan kan je zeggen, uh, want dat is niet leuk voor die ijssalon.

363
00:58:15.820 --> 00:58:22.300
In dit geval zou ik zeggen: haal dat ook nog wel eens bij die Italiaan. Maar medelijden met OpenAI heeft deze jongen niet, kan ik je vertellen. Ja.

364
00:58:22.310 --> 00:58:32.000
Dus, nou, het is, het is iets, uhm, het is, het heeft meerdere, uh, facetten voor mij. Ik vind het gaaf, uh, technisch om te zien.

365
00:58:32.200 --> 00:58:41.540
Ik download hier een hele grote plop met data en als je dat op een juiste manier inlaadt kan je met dat ding praten, want ik, ja, ik zit ook te kijken naar file sizes toch wel.

366
00:58:41.660 --> 00:58:51.340
Ik denk dan: oké, ik download 3.8 gig, dan vraag ik: kan je me meer vertellen over Carl Sagan? En dan krijg ik gewoon een antwoord. En dan denk ik: waar in die 3.8 gig zit dit, deze data?

367
00:58:51.400 --> 00:59:00.700
Nou, zo werken taalmodellen niet. Die data zitten niet op die manier in, hè, en daar wordt ook— dus, da, ik kreeg een soort bewustzijn van de grootte van die taalmodellen.

368
00:59:01.020 --> 00:59:12.900
En ik zeg het nog even voor de duidelijkheid: jongens, jongens, wat is dat taalmodel van 3.8 gig dom. Dat is echt GPT-1.5. Oké. Als je, ik, ik vroeg: wie is Alexander Klüpping?

369
00:59:13.080 --> 00:59:24.900
Dan zei die: dat is een Duitse, uh, componist uit de jaren 20. Ik ben gaan googelen. Ik weet, vo-voor mij was het niet waar. Dus, uhm, vol overtuigend de hallucinatie van een pagina lang over iemand die niet waar was.

370
00:59:25.110 --> 00:59:31.280
Mhmm. Dus toen dacht ik ook: ja, het is ook maar 3.8 gigabyte, hè. Het is trouwens niet groter beter, maar wel een beetje.

371
00:59:32.320 --> 00:59:41.410
Ja, anders moet ie, ja, je kan, je kan niet zeggen: ik, ik heb tien pagina's van, uh, Harry Potter en de rest verzin ik er wel bij. Je moet wel meer data hebben om dat hele verhaal te kunnen, te kunnen vertellen.

372
00:59:41.440 --> 00:59:46.000
Maar oké, hij is dus niet zo slim. Hij is niet zo slim. Maar goed, dat is een kwestie van tijd.

373
00:59:46.050 --> 00:59:55.010
Ik bedoel dan, dan moeten, dan, dan zeggen we, hè, want je hebt nog een vraag aan mij gesteld een paar minuten geleden: joh, hoe zit het nou in vergelijking tot de, uh, gesloten modellen?

374
00:59:56.440 --> 01:00:11.300
Uh, wat ik zo in die test zie is dat de heavy finetuned versies van, uit mijn hoofd, een Falcon model, uh, komen in de buurt van ChatGPT 3.5 of GPT-3.5, wat ChatGPT, uh, is voor de gratis versie. Ja.

375
01:00:11.340 --> 01:00:18.260
En dat is al best wel cool. Best goed. Maar weet wel, wat jij dan aan het draaien bent thuis is iets van, uit mijn hoofd,

376
01:00:19.560 --> 01:00:30.160
90 gigabyte op een machine wat dus of twee brute Nvidia kaarten van € 2.500 per stuk moet vat, bevatten, of de duurste computer die Apple op het moment verkoopt. Ja,

377
01:00:31.100 --> 01:00:43.110
maar als ik, als ik, als ik, ik probeer te begrijpen wat jou hier zo aan triggert dat het lokaal draait. Dat is gewoon, je, je vindt het gewoon technisch vooral een marvel. Of, of denk je,

378
01:00:44.280 --> 01:00:56.572
uh, al, nu ik dit kan, gaat dat betekenen dat ik straks x, y en z ook kan? Nou. Hoe, hoe werkt het in jouw hoofd dat je hier zo enthousiast van wordt? Ja, dat ontploft dan echt in mijn hoofd, want ik denk dan: okéDit.

379
01:00:57.252 --> 01:01:07.232
Oké, ik. Ik maak even een metafoor. Ik weet niet of die zinvol is toen ik. Ik. Ik weet echt nog als de dag van gister dat ik een cd-brander in mijn computer had. Dat was namelijk een heel gedoe.

380
01:01:07.272 --> 01:01:18.172
Technisch gedoe om dat aan de praat te krijgen. Ik had een cd-brander, niet eens dvd's. Cd-roms kon ik branden. Toen zat daar een cd'tje bij van Nero Burning Rom. Daar kon ik dan mee branden.

381
01:01:18.212 --> 01:01:30.632
Je had nog veel meer programma's vroeger op Windows en ik had die cd-brander erin gezet. Ik kon hem eindelijk zien. Ik zag die drive letter in mijn computer overzicht. Ik installeer Nero Burning Rom.

382
01:01:31.272 --> 01:01:39.132
Ik vond het allemaal ingewikkeld, want het werkte. Het vond het steeds niet. Het duurde echt wel een weekend. En toen, op zondagavond na het eten, mocht ik toch nog even rommelen.

383
01:01:39.142 --> 01:01:49.712
Ik was vrij jong en doe ik dat een van mijn spindel cd'tjes van de Mediamarkt erin en ik ik brand er iets op. Ik ik. Ik haal hem eruit, stop hem er weer in en het staat erop.

384
01:01:50.112 --> 01:02:00.812
En voor mij als die cirkel dan rond is, dan denk ik ja, maar nu kan ik echt alles. Nu kan ik alles. Ik dat want ik denk oké, nu gaan we kijken hoeveel erop kan. We gaan over burnen. 703 MB. Nice.

385
01:02:01.132 --> 01:02:09.992
We gaan er een film op doen. We gaan. We gaan mp3 cd's branden. Dan stop ik die in de auto van mijn vader, want dan zag ik een mp3. Ja, ik zit. Ik zit. Ik bedoel, dit is ook de inner nerd, hè.

386
01:02:10.592 --> 01:02:19.992
Dat ik zit te genieten van het feit dat ik mp3's kan luisteren op de autoradio van mijn vader en dat ik die ook nog eens de track titles in beeld zie, want dat heb ik toegevoegd. Ja, maar ik. Dus mijn enthousiasme.

387
01:02:20.132 --> 01:02:30.472
Kijk, voor die tijd komen daar geen werkende cd-roms uit. Dus ik heb in essentie niks. Maar het moment dat er ook maar iets rond is, dan weet ik. Ja, maar nu is ik dit rond heb.

388
01:02:30.532 --> 01:02:41.672
En in het geval van die LM Studio is het voor mij zo oké. Blijkbaar kan ik taalmodellen, wat uiteindelijk gewoon bestanden zijn. Het zijn gewoon bestanden. Die kan ik downloaden en inladen. Dan ben ik benieuwd.

389
01:02:41.932 --> 01:02:54.712
Is er naast Hugging Face nog meer plek waar deze dingen staan? En hoe maak ik ze zelf? Ik Ik ben meteen gaan googlen. Ja, maar nu ik ze kan inladen wil ik ze ook zelf maken. Want dan, dat is een beetje wat

390
01:02:55.872 --> 01:03:03.532
wat ik denk je wat, wat we de komende tijd veel meer gaan zien is op maat gemaakte domein specifieke taalmodellen.

391
01:03:03.892 --> 01:03:15.232
Ja, ik ben daar heel erg nieuwsgierig naar en ik wil dan niet wachten op OpenAI of smeken met mijn creditcard of ik het alsjeblieft mag doen. Ja, en dit zeg ik nu even makkelijk de.

392
01:03:15.292 --> 01:03:27.032
Het draaien van de taalmodellen is echt wat anders dan het trainen van de taalmodellen. Ja, ja. Ja. Ja. Daar trainer zeg je echt u tegen. Dan mag je echt een garage met Mac studio's gaan gaan bouwen zeg maar.

393
01:03:27.392 --> 01:03:38.632
Ik denk dat het gewoon. Als ik een gok mag doen, denk ik dat het een soort uiting is van je nieuwsgierigheid. Want door onder de motorkap te kijken begrijp je gewoon beter hoe deze technologie werkt. En uhm.

394
01:03:38.872 --> 01:03:49.592
En OpenAI geeft je. Het is een beetje als zo'n apparaat wat je niet zelf kan repareren. Als je ChatGPT gebruikt dan is dat een apparaat zonder schroefjes wat je gewoon weg moet gooien op het moment dat het kapot is.

395
01:03:50.392 --> 01:04:01.232
En en hierbij kun je onder de motorkap kijken en zelf onderdelen vervangen. En dat is gewoon dat. Dat is. Volgens mij is dat mensen die dit doen al vanaf dat ze jong zijn, gewoon zelf computers bouwen en zo zijn.

396
01:04:01.252 --> 01:04:09.972
Het is gewoon een uiting van nieuwsgierigheid naar hoe systemen werken en hoe je vervolgens je je eigen invloed daarop kan uitoefenen en dus voorstellingsvermogen kan krijgen.

397
01:04:10.252 --> 01:04:20.291
Het is een voorwaarde voor voorstellingsvermogen om zelf dingen te kunnen maken. Ja, ik heb wel eens iemand die zei die stond in de. Dit is een heb ik niet meegemaakt. Een verhaal wat ik las.

398
01:04:20.352 --> 01:04:31.212
Iemand stond in de rij bij een bouwmarkt en die had al zeven bij zeven verschillende bouwmarkten gezocht naar een plantenbak voor in zijn achtertuin. En het lukte steeds niet.

399
01:04:31.692 --> 01:04:37.412
Toen stond hij bij die zevende en toen zei hij Mag ik kan die plantenbak zijn? Nee, sorry, hebben we niet. En toen zei hij Ja, ik ben echt al de hele dag bezig.

400
01:04:38.452 --> 01:04:48.632
Jongens, jongens, jongens, ik wil gewoon een paar planten in mijn tuin zetten. Toen zei die persoon achter hem Het is maar hout, hè? Je kan ook planken kopen en dan zet je daar zelf een plantenbak van in elkaar.

401
01:04:48.772 --> 01:04:56.452
En dat was een soort van nou, die had al een blogje beschreven dat hij zei daar heb ik mijn eerste klus zelfvertrouwen gewonnen in die in. Niet in die winkel, maar dat daar ging open.

402
01:04:56.912 --> 01:05:07.932
Toen hij hem in elkaar geschroefd had, die avond dacht hij Wow, blijkbaar kan ik allemaal dingen in mijn tuin maken van hout. Dit klinkt echt kinderlijk naïef. Nee, ik snap het. Het is een mindset. Ja, en nu ik denk dat.

403
01:05:07.992 --> 01:05:17.872
Noem het taalmodel zelfvertrouwen wat ik nu. En het is allemaal heel minimaal, want ik heb geen idee wat wat de wiskunde erachter is. De fundamentele wetenschap. Jongens, ik snap er geen reet van.

404
01:05:17.902 --> 01:05:29.012
Maar wat ik wel weet is dat ik een bestand van een aantal gig kan downloaden en dan met dat bestand kan praten. Volgens mij zijn we rond. Ja. En en. En. Namens de luisteraars dank ik jou voor je nieuwsgierigheid.

405
01:05:29.772 --> 01:05:37.022
Dit was Pokkie. Dank aan Sam Hengeveld voor het monteren van deze aflevering. Tot volgende week. Tot de volgende week. [muziek]
