WEBVTT

1
00:00:00.100 --> 00:00:10.400
[alarm] Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.440 --> 00:00:21.720
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid. Ervaar een ultiem gladde en comfortabele scheerbeurt.

3
00:00:22.500 --> 00:00:32.860
Ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan. Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat.

4
00:00:33.700 --> 00:00:47.660
De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen. Koop de Philips S9000 Prestige bij jouw favoriete winkel. Ben jij van plan om dit jaar te starten met beleggen?

5
00:00:47.720 --> 00:00:50.360
Of ben je er al mee bezig en zoek je een portie inspiratie?

6
00:00:50.400 --> 00:01:01.800
Wij zijn Jasper en Twan, twee doodgemonomaak compleet verschillende beleggers en iedere donderdag vertellen wij in onze podcast de lange termijn over onze beleggings reis, onze lessen en met name onze fouten.

7
00:01:02.260 --> 00:01:13.800
En dat allemaal op een vermakelijke en laagdrempelige manier. Alsof je met ons in de kroeg staat. Met een whisky'tje erbij. Lekker. Dus luister eens naar onze podcast De Lange Termijn. The future of advertising is here.

8
00:01:13.890 --> 00:01:23.240
Thanks to generative artificial intelligence delivering instantly customized ads and for brands likely better results. While some are betting on the business case.

9
00:01:23.300 --> 00:01:27.600
Others worry this move will only serve to make it harder to figure out what to trust online.

10
00:01:27.680 --> 00:01:38.840
Welkom bij Pokkie, een podcast over kunstmatige intelligentie waarin wij Wietse Hagen en Alexander Klöpping je bijpraten over kunstmatige intelligentie. Met vandaag Facebook heeft Voice Box aangekondigd.

11
00:01:38.900 --> 00:01:46.440
Dat is een tool waarmee ze stemmen kunnen klonen. Ook jouw stem. Men zou het tot nu toe voor zichzelf en wij gaan filosoferen over waar ze het allemaal voor gaan gebruiken.

12
00:01:46.900 --> 00:01:56.800
Daarnaast heeft Stable Diffusion een nieuwe versie van haar model uitgebracht. Stable Diffusion is een bedrijf wat van die generatieve AI tools maakt waarmee je plaatjes kan maken en hun nieuwe model is groter.

13
00:01:56.820 --> 00:02:09.320
En Wietse beantwoordt de levensvraag is groter altijd beter? En we gaan het hebben over het groot kapitaal en de invloed van AI op advertenties. Die is namelijk groot, want we schetsen dus een nogal dystopische wereld.

14
00:02:10.000 --> 00:02:21.240
Dat ga je het komende 1,5 uur horen in deze nieuwe aflevering van Pokkie. Maar nu eerst de laatste ontwikkelingen op het gebied van AI. Wietse, wat vond jij opvallend deze week? Meta.

15
00:02:21.920 --> 00:02:32.460
Ik zeg nog steeds een beetje Facebook en ik mag het zeggen, want het staat zelfs op hun blog van Facebook. Wat? Oké. Ja, mag ik dan Facebook zeggen? Ja, want ik vind het overcorrectie naar meta echt eigenlijk heel.

16
00:02:32.980 --> 00:02:38.640
Ik vind dat journalisten dat heel makkelijk doen. Soort van. We hebben nu een andere naam en iedereen gaat het opeens zeggen. Ik vind het ook.

17
00:02:38.680 --> 00:02:51.280
Je moet je je journalistieke onafhankelijkheid bewaren door heel lang Facebook te blijven zeggen, vind ik. Nou Facebook. Juist. Die heeft Voice Box geïntroduceerd en er zitten een aantal interessante zaken. Zo.

18
00:02:51.480 --> 00:03:01.260
Sowieso vind ik het boeiend, want voor de luisteraars er is een technologie die heet, die is. Of eigenlijk een bedrijf dat heet Eleven Labs. Daar hebben wij het misschien tussen neus en lippen door al eens over gehad.

19
00:03:01.820 --> 00:03:09.580
Daar kan je je stem klonen en dan kan je eigenlijk text to speech doen, maar echt niet meer zo robotisch als vroeger, maar angstaanjagend goed. Ja.

20
00:03:09.980 --> 00:03:19.760
En Eleven Labs heeft ook laatst weer een hele grote bak geld gekregen, want dat wordt gezien door investeerders dat dat wat interessant is dat zij hebben. Ja, want het is vooral cool omdat je dus stemmen kan klonen.

21
00:03:19.900 --> 00:03:30.300
Dus je je gooit er een. Wat is een minuut audio in? Ja, een minuutje. Ik vind het echt heel bizar. Ja, ik heb wel eens Eva Jinek zo gekloond door, want die praat Engels en dat ding kan nog geen Nederlands.

22
00:03:30.320 --> 00:03:32.240
Nog geen Nederlands. Maar dan heb je dus Engels.

23
00:03:32.340 --> 00:03:40.860
Zij praat heel goed Engels in interviews, dus ik heb een interview van Hillary Clinton met haar gepakt en dan alle antwoorden van Hillary Clinton eruit geknipt en alleen maar de vragen van Eva Jinek overgehouden.

24
00:03:40.900 --> 00:03:50.780
En nu heb ik dus die stem. Die heb ik nu gewoon staan, dus die kan ik alles laten zeggen. Dat is wel vet. Maar anyway. Goed voor jou om te weten in de laatste update, want ik krijg een nieuwsbrief. Spreekt zij Spaans?

25
00:03:51.500 --> 00:03:59.560
Sowieso zijn er een aantal de grote talen Duits, Spaans, Frans inderdaad bijgekomen. Maar ook audio signatures. Die kan je niet uitzetten.

26
00:03:59.620 --> 00:04:11.000
Dat houdt in dat als jij dit nu op Twitter zet en dat wordt doorgedeeld, dat ze altijd kunnen zien dat het gemaakt is door jou. Ah, niet alleen dat het AI is, maar dat ik het heb gemaakt. Ja. Wauw!

27
00:04:11.080 --> 00:04:19.110
En dit is wel belangrijk, ook voor de verrader dingen die er al mee gebeurd zijn. Sure. Dus dat is dat je het weet. Oh wat interessant. Als je hier grapjes mee gaat maken, dan kunnen ze altijd.

28
00:04:19.140 --> 00:04:31.380
Maar je hoeft nog niet met je DigiD in te loggen om bij Eleven Labs aan te melden. Ze kunnen hoogstens je account eruit trekken uit de lucht halen. Als wat Alex het proton is dan kan je nog een. Ja klopt. Fair enough.

29
00:04:31.440 --> 00:04:43.980
Maar dit zul je dus zien. Dat je dus het het toe die moet, dat je zelf moet dat de EU gaat verplichten, dat je jezelf moet authentic authenticiteit authent authenticatie. Kan je niet helpen, want ik kan het ook niet.

30
00:04:44.020 --> 00:04:54.360
Ik spreek ook geen Nederlands wil je zeggen, maar authenticate voordat je een stem mag nadoen van iemand zodat die die AI fingerprint. Erin kan stoppen. Want dit is een eerste stap richting natuurlijk. Ja,

31
00:04:55.560 --> 00:05:03.740
ook hier zitten nog. Dit was niet eens wat ik bedoelde dat er ook in dit onderwerp zat. Maar dat zit er ook nog. Nee, nee, helemaal niet. Sorry. Keep going. Dus even.

32
00:05:04.200 --> 00:05:18.900
Eleven Labs is nou ja, al een oude speler in de AI wereld. Vijf maanden of zo. Vijf maanden oud. Boring. Zo saai. En er heerst. Er heerst, er heerst een, een idee. Ik weet niet bij wie.

33
00:05:18.960 --> 00:05:26.900
Ik weet niet hoeveel mensen dat zijn, maar ik krijg het wel eens mee als een soort van sentiment dat Open AI, Eleven Labs,

34
00:05:28.360 --> 00:05:43.760
Stable Diffusion, Mid Journey, al die verse spelers in die AI markt die al die hoge ogen gooien dat Facebook Meta Google Alfabet Apple Apple dat die daar een soort van helemaal wow, wat gebeurt hier?

35
00:05:43.940 --> 00:05:53.480
En we zijn helemaal out gamed. En ze zijn oude spelers en daar gaat Google en. Nee man, dit is gewoon niet. Ik zit niet in dat team. Dit is niet de realiteit.

36
00:05:53.940 --> 00:05:57.380
De realiteit is dat alle drie de bedrijven hier al heel lang mee bezig zijn.

37
00:05:57.480 --> 00:06:06.760
Ja, oké, het sentiment dat deze grote techbedrijven heel snel ingehaald worden door allerlei kleine bedrijfjes, dat is gewoon niet zo, want die zijn hier al heel lang mee bezig. Ook met dit soort speculatie.

38
00:06:06.780 --> 00:06:17.880
Sterker nog, precies een van de fundamentele technologieën die er nu voor zorgt dat we zo'n nieuwe AI wave hebben is trans. Dat heet Transformers. Dat is uitgevonden bij Google.

39
00:06:18.300 --> 00:06:27.080
Dat heeft wel heel lang in de kast gelegen daar. Kunnen we onze vraagtekens bij zetten. Grote vraagtekens. Maar het is nu niet zo een soort BlackBerry iPhone event. Nee, nee, nee, nee.

40
00:06:27.100 --> 00:06:39.530
Niet de de dat is een beetje naïef denk ik. Maar.Wat bewijst dat wat ik nu zeg is Voice Box. Want Voice Box is ElevenLabs van Facebook. Dus dat betekent dat je speech synthesis kan doen.

41
00:06:39.650 --> 00:06:51.150
Maar uhm twee interessante zaken daaraan. Ze hebben het gelanceerd op hun blog. Daar kan je allemaal dingen luisteren van bijvoorbeeld ruis weghalen uit audio, klappen weghalen uit audio.

42
00:06:51.160 --> 00:06:53.630
Want ze doen niet alleen maar voice synthesis, maar ook repair.

43
00:06:53.980 --> 00:07:02.700
Op zich hadden we dat vanuit Adobe al een paar keer gezien vorig jaar, maar dit is dan wel weer ja Repair is dan een slechte opname omdat er een boor op de achtergrond te horen is.

44
00:07:03.090 --> 00:07:13.930
Die is gewoon, dat is gewoon selecteren. Klik magic weg Ja, als een soort nooit noise cancelling op je AirPods. Maar dan de gekke manier op bijzondere manier hoe ze het natuurlijk doen is zeggen we klonen je stem.

45
00:07:14.470 --> 00:07:23.170
We weten wat je daar zei door transcription. We laten het je nog een keer zeggen, synthetisch en dat plakken we ertussen. Ja, precies. Het is niet het weghalen van de drilboor, het is het opnieuw maken van jouw stem.

46
00:07:23.210 --> 00:07:33.830
En gewoon dat hele fragment delete. Ja dus. Het is echt perfect. En helemaal omdat het, zeg maar getimed is mid sentence. Ja, ik zit niet. Ik bedoel, ze kiezen natuurlijk de beste samples, dat begrijp ik. Je kan er dus

47
00:07:34.850 --> 00:07:46.830
zelf niet mee spelen. Waarom niet? Ze houden het gesloten. Want ze hebben aangegeven in de media, de verschillende bronnen. Ik heb een artikel van The Verge waarin ze eigenlijk uitleggen wij vinden dit Voice Box te gek.

48
00:07:46.850 --> 00:07:57.870
We zijn er super trots op, maar we zien gewoon de abuse. Dat is gewoon niet oké als we hem nu uitbrengen. Daar kan je allemaal vragen bij stellen. ElevenLabs doet het wel, dus. Maar het is een vorm van zelfregulering.

49
00:07:58.270 --> 00:08:05.870
Van een bedrijf waar je dat niet echt van verwacht. Facebook. En je kunt ook zeggen uitbrengen, hoe bedoel je dat? Je kan zeggen we open sourcen het, dan kunnen wij er allemaal mee spelen.

50
00:08:05.950 --> 00:08:12.970
Dat heeft ElevenLabs bijvoorbeeld ook niet gedaan, maar je kunt wel bij ElevenLabs inloggen en je eigen tekst gaan typen. Facebook zegt nu dit kunnen wij nu.

51
00:08:13.010 --> 00:08:23.330
We gaan kijken wat we daar binnen Meta, groot Meta mee kunnen op al onze Instagrams, WhatsApp en noem maar op die we daar allemaal onder hebben hangen. Maar we laten jullie daar verder nog niet mee spelen.

52
00:08:23.350 --> 00:08:25.010
Want kijk eens hoe responsible we zijn.

53
00:08:25.130 --> 00:08:34.220
Ik moet zeggen op het moment dat Meta zegt en hetzelfde geldt ook voor Google op het moment dat zij iets niet doen omdat ze zogenaamd responsible zijn, dan gaan er bij mij wel alarmbelletjes af.

54
00:08:34.230 --> 00:08:44.410
Dit is dikke intellectual property, maar die zijn gewoon kunnen willen inzetten op hun eigen properties, niet daarbuiten. Het cynische kijken hierop is toch wat jij volgens mij nu een beetje naartoe wil is.

55
00:08:44.910 --> 00:08:57.050
Je kan het responsibility noemen of competitive advantage. Ja, maar omdat je omdat je niet zo'n, zo'n prompt box zoals op, op ElevenLabs dat je als gewone ziel zoals wij daar mee kunnen gaan spelen.

56
00:08:57.770 --> 00:09:07.550
Daardoor hebben heeft verliest Facebook iets aan zijn intellectueel eigendom. Dat valt toch wel mee? Nee, het is vooral op zo'n moment dat ze het met trots aan de wereld willen laten zien.

57
00:09:07.610 --> 00:09:19.810
Zoals ze dus doen in zo'n blogpost. Het zou wel. Het zou nog wel groter worden als je een demo applicatie erbij hebt. Als je graag aandacht wil. En dat willen ze blijkbaar. Nou, ik zit meer te denken dat je kunt.

58
00:09:19.890 --> 00:09:30.810
Ik zie het voor me dat je straks in Instagram nets dat je in TikTok al kunt tekst kunt typen bij jouw kleine filmpje en dan heb je een voice over. Maar dan kan je nu bij Facebook zeggen Face Box, dat is nieuw.

59
00:09:30.990 --> 00:09:42.730
Ja, dat is een nieuwe app. Nee. Dat je straks in Instagram kan zeggen, want dat is natuurlijk ook van hun. Uhm, ik wil een voice over met mijn eigen stem. Dus als je Instagram de volgende keer open slaat daar.

60
00:09:42.850 --> 00:09:52.150
Hey, do you want to add your own voice to Instagram? En dan kloon je even je eigen stem in 10 seconden. En dan wat? Nou, dan kan jij vanaf dat moment alle Instagram reels die je plaatst, zeg maar.

61
00:09:52.190 --> 00:10:01.770
Of die kan je voice overen. Zoals de TikTok stem, maar dan je eigen stem. En dat is dan toch lekker dat dat alleen Facebook dat heeft. Maar dit is natuurlijk voor Gen Z die bang is om te bellen.

62
00:10:02.430 --> 00:10:12.610
Ja, dat is dan dat je dan ook dat je het eng vindt om je real self in te spreken. Dat je dan gewoon je model kan. En wij, nou jij en ik bijvoorbeeld, sturen wel eens voice berichten naar elkaar via WhatsApp.

63
00:10:13.010 --> 00:10:18.370
Dat kan dan straks gewoon. Ja sure. Een play knopje zijn en dan kan je hem altijd laten voorlezen met jouw stem, ook al heb je hem getypt.

64
00:10:18.410 --> 00:10:26.150
Nou, die dingen, wil je die zomaar weggeven of gewoon lekker inbouwen in je eigen applicaties? Ja, nee. Tuurlijk, tuurlijk willen ze het inbouwen in hun eigen applicaties.

65
00:10:26.230 --> 00:10:32.430
Maar het feit dat ze nu een werkende demo als ze nu een werkende demo hadden gegeven had dat niks afgenomen van die van die mogelijkheden.

66
00:10:32.770 --> 00:10:39.810
Dus ik zit gewoon te denken als bedrijven zoals Meta, maar ook Google op dit moment dit soort nieuws de wereld in slingeren, welk doel hebben ze daar dan mee?

67
00:10:40.110 --> 00:10:46.790
Want is is het laten zien aan de aandeelhouders dat je echt heus wel heel vette dingen aan het maken bent? Is dat het?

68
00:10:46.850 --> 00:10:56.690
Is het aan regulators laten zien dat je vooral heel zorgvuldig met AI omgaat, dus dat ze vooral geen regelgeving moeten maken? Is dat het? Ik weet het niet. Ja, mooi.

69
00:10:56.710 --> 00:11:04.750
Maar ja, misschien is dit mijn cynische aard hoor, die gelijk dat soort dingen erachter ziet. Het kan allemaal tegelijk een beetje waar zijn ja, maar dat hier ook hier is 100% over nagedacht.

70
00:11:04.810 --> 00:11:11.270
Maar als je meer aandacht wil, dan maak je een demo. Dat is net ChatGPT. Dat is ook. We hadden heel lang een playground, maar toen kwam het in een UI en toen werd iedereen gek.

71
00:11:11.350 --> 00:11:20.730
Dus het feit dat je er zelf mee kan spelen is gewoon heel wezenlijk. Dus dan had het veel meer aandacht opgeleverd als je zeg maar Mark Zuckerberg stem zou kunnen gebruiken.

72
00:11:21.110 --> 00:11:30.710
Maar ja, je weet gewoon wat voor pr-storm je over jezelf afroept als Facebook dat doet. Maar de vraag is dat is even, want daar wil ik even op reageren. De vraag is in het.

73
00:11:31.050 --> 00:11:39.950
Je hebt een blogartikel waarin ze het aankondigen. Dat voelt een beetje half research paper, half marketing blog. Dat is het beste, want dan krijg je dat soort van dat je serieus genomen wordt.

74
00:11:39.990 --> 00:11:47.590
Maar eigenlijk het is een marketing opportunity. Ja, is geweldig, dat soort vibe. Ja toch? Dat voelt dan heel. En dat fontje is net even serieus. Een paar grafieken erin.

75
00:11:47.620 --> 00:11:56.990
Ik volg dit helemaal, maar het is niet een PDF van een paper zeg maar waarvan je weet journalisten gaan die niet lezen. Niet in het standaard Latex fontje waardoor je denkt dit is real. Juist te veel voetnoten. Ja.

76
00:11:58.270 --> 00:12:08.830
Dit, dit blogitem. Dit artikel bevat allemaal samples. Kan je allemaal klik, klik, klik, klik. Maar het begint met een video en dat is een video van 3 minuten waarin het wordt geïntroduceerd.

77
00:12:08.890 --> 00:12:17.509
En die video, dan is het grapje aan het einde van de video. Haha, deze hele video is met Voice Box gemaakt. Ik had het niet door. Wie spreekt hem in?

78
00:12:17.630 --> 00:12:27.494
Niet, dat is niet Mark Zuckerberg, want dat is een andere video.Waar ik, uh, al een beetje, uh, naar heb, uh, verwezen eerder voor dit gesprek dat ik zei: er is, het valt mij op.

79
00:12:27.874 --> 00:12:38.374
Punt één is er dus een video van drie minuten waar de hele voice-over introduceert wat Voicebox is met Voicebox en dan aan het einde, by the way, this whole video is made with Voicebox. Tadaa, ultrademo.

80
00:12:38.414 --> 00:12:46.654
Gewoon een voice-over. Ja, een mevrouw, een dame, ik denk, uh, van het ontwikkelteam. Mhmm. Uhm, en er is ook een, uh, een kleinere video.

81
00:12:46.674 --> 00:12:55.554
Een soort clip in een Instagrammable TikTok-formaat met Mark Zuckerberg die dertig seconden lang over Voicebox vertelt, uh, met daarin een soort van die lekkere bewegende animerende dingen.

82
00:12:55.564 --> 00:13:03.894
Het kan, kan zo in je TikTok-feed geplakt worden, zeg maar. Alsof het gemaakt is om uit, uitknipbaar te maken, zodat mensen het in, op Ti-, op TikTok kunnen zetten.

83
00:13:03.914 --> 00:13:13.434
En daar was ik dan weer verbaasd over, omdat ik dacht: doen ze dit vaker? Soort van, kijk, dat ze research brengen in een soort van commerciële verpakking, waar we het net over hadden.

84
00:13:13.514 --> 00:13:21.294
Alla, nu gaan we research brengen in een TikTok-formaat met de stem van Mark Zuckerberg. Ook die stem van Mark Zuckerberg vond ik ook. Ja. Dat, dat voelde een beetje pietezwart.

85
00:13:21.954 --> 00:13:30.954
Dat je denkt: o, is het de CEO die alle reclames op tv gaat doen? Wat, wat grappig. En nu ook, gaat Mark nou zelf TikTok-dingen inspreken of zo? Ze willen blijkbaar wel aandacht ermee.

86
00:13:31.014 --> 00:13:38.854
Ja, de vra-, en nu is de vraag, dat weet ik dus niet, want wij kunnen die signature niet checken. Maar was dat misschien toch ook al Voicebox? Dat weet ik, ik weet het niet. Ah, ja.

87
00:13:38.914 --> 00:13:49.674
Wat jij al een beetje naartoe wilde, van was het Mark of was het synthetische Mark? Ja, ik heb, ja, oké. Nou, we gaan het straks hebben over hoe dit, uh, invloed zou kunnen hebben op reclame.

88
00:13:49.754 --> 00:13:53.054
Maar je had ook nog een ander ding waar je, waar je het over wilde hebben van deze week.

89
00:13:53.194 --> 00:14:03.434
Nou, een beetje aansluitend op het verhaal van, uh, ik denk dat we een soort drie, uh, grof gezegd drie typen, uhm, spelers hebben binnen die kunstmatige intelligentiewereld die er nu een beetje is.

90
00:14:03.874 --> 00:14:14.074
Uh, deze wave, zeg maar, deze golf van nieuwe technologieën. Je hebt de, uh, grote partijen die het eigenlijk op de plank hadden liggen en nu vlug afstoffen en zeggen: we hadden het eigenlijk al, maak je geen zorgen.

91
00:14:14.194 --> 00:14:23.094
Hè, dus dat is een beetje Voicebox en, uh, Google die nu in hun search ook een soort ChatGPT heeft ingebouwd. Uh, in ieder geval, die komt eraan. Uh, dan heb je de beetje midden.

92
00:14:23.134 --> 00:14:31.094
Dus dat zijn de bedrijven die een tijdje stealth zijn geweest, die een beetje in het geheim à la OpenAI al heel veel presentaties hadden gegeven aan investeerders die allemaal al bakken geld hebben gegooid.

93
00:14:31.314 --> 00:14:39.594
Toen mochten wij het allemaal zien en was het: zo, OpenAI, wat gebeurt er nu? Ja. Uhm, en dan heb je de: hé, wij vinden eigenlijk dat dit allemaal open source zou moeten zijn.

94
00:14:39.934 --> 00:14:46.534
Dat zijn een soort meer academische teams slash bedrijven. Dat loopt een beetje door elkaar en daar vind je, uh, Stability AI.

95
00:14:46.914 --> 00:14:57.744
Dat is een partij die zegt: oké, het genereren van, zoals generative AI, dus dan kan je plaatjes maken aan de hand van een prompt, hè. In Stable Diffusion. Ja, en dat is, dat is van hun. Ja, Stable Diffusion.

96
00:14:57.974 --> 00:15:03.014
Maar het mooie van Stable Diffusion is dat je het op je laptop kan draaien en dat ze er ook echt hun best voor doen.

97
00:15:03.054 --> 00:15:09.714
Dus er is, er wordt, er is een GUI gemaakt en ze zorgen dat het model draaibaar is op, ik moet wel zeggen zestien gigabyte intern, et cetera.

98
00:15:09.774 --> 00:15:21.054
Je moet wel een beetje een beetje nieuwe machine, maar dan kan jij, en, uh, ik heb er nog wat dieper ingedoken, zelfs nu nog echt alleen maar op een Nvidia-kaart en sommige AMD-kaarten, maar niet bijvoorbeeld, uh, de spullen van Apple.

99
00:15:21.174 --> 00:15:26.974
Mhmm. Dus je moet echt wel even iets dedicated koppelen aan je systeem. Oké. Dus dat is dan nog niet helemaal gedemocratiseerd.

100
00:15:27.514 --> 00:15:35.414
Wat zij hebben gedaan, uh, deze week is hun, uh, laatste versie, de nieuwste versie van Stable Diffusion. Dat heet, uh, even kijken, hoor. Van de plaatjesgenerator.

101
00:15:35.454 --> 00:15:44.614
Ja, ja, en dat is de, Stability AI launches SDXL, oftewel Stable Diffusion XL en dat is een groter model. En bij modellen is het vaak zo,

102
00:15:45.794 --> 00:15:55.114
uh, bij, net als bij taalmodellen, maar ook bij die generatieve AI-modellen is dat, hè, groter is niet altijd beter, want je kan ook, dat, dat is gewoon zo [lacht]. Helder. Maar helder. Bedankt.

103
00:15:55.214 --> 00:16:00.454
Dat iedereen het even weet. Ja. Maar in dit geval, als je dat slim groter maakt, dan heeft dat echt wel invloed.

104
00:16:00.494 --> 00:16:09.214
Dus het, en dat heeft te maken, je ziet heel vaak bijvoorbeeld ook bij die large language models dat ze zeggen: voor mij zit een GPT-4 nu boven de 100 miljard, uh, tokens, terwijl...

105
00:16:09.974 --> 00:16:20.714
Dat is de hoeveelheid tekst die erin zit, ja. Ja, ja, eigenlijk tekst in een net even andere representatie, maar pretty much. Uhm, daarbij is het wel de kwaliteit van die data die helpt.

106
00:16:20.754 --> 00:16:29.614
Je moet er niet zomaar wat opstapelen. Nee, oké. Ik bedoel, je moet, je bronnen moeten wel een beetje goed zijn. Ja, sure. En, en daarin zie je wel dat dat redelijk schaalt met de hoeveel-, met de grootte van het model.

107
00:16:29.694 --> 00:16:41.414
Als de dataset kwalitatief heel hoog is, dan maakt de grootte van het model wel degelijk uit. Ja, precies. En hier is het zo dat de nieuwe, uhm, Stable Diffusion XL, uhm, groter is en verder getuned.

108
00:16:41.834 --> 00:16:47.774
Wat levert dat dan concreet op? Mhmm. Nou, punt, nogmaals, dit kun je zelf draaien. Wat gaaf! Ik word daar altijd enthousiast van.

109
00:16:48.334 --> 00:17:00.694
En waar ik tegenaan ben gelopen in, bij anderen, waaronder ook Midjourney, uh, DALL-E, hè, allemaal een beetje in hetzelfde rijtje van generatieve, uh, algoritmen, is dat tekst gewoon niet helemaal lekker werkte dan.

110
00:17:00.734 --> 00:17:07.584
Ja, als je het ding tekst wil laten genereren. Dan viel die gewoon helemaal door de mand. Heel raar, dat is bijna, maar soms dan zijn het ook Indiase tekens of zo die ertussen staan.

111
00:17:07.594 --> 00:17:15.494
Ja, dan zeg je: doe mij, doe mij een persoon met een McDonald's shirt aan en dat, dat lijkt, dat is van ver weg ergens iets met McDonald's. Maar alsof iemand, uh, nou ja, uh, niet helemaal.

112
00:17:15.514 --> 00:17:21.594
Bizar, want voor de rest een soort van, je ziet de poriën bijna, zo hoog is het detailniveau. Maar dan een e tekenen, dat lukt niet.

113
00:17:21.814 --> 00:17:31.354
Ja, en dat is nu iets wat ze dus, uhm, nou nog niet helemaal voor elkaar hebben, maar wel echt stukken beter. Dat is het eerste wat ik ging testen gisteravond. Ik dacht: even kijken. Wat heb je gedaan?

114
00:17:31.454 --> 00:17:44.294
Paar Pokie-logo's heb ik gemaakt. Je hebt logo's gemaakt. Ja, ik had. Goed. En de, de, de prompt was: a 3D rendered word, the 3D rendered word Pokie in front of a supernova explosion with some twinkling stars around.

115
00:17:44.574 --> 00:17:52.794
Ja, tuurlijk. En dat werd, dat werd echt een soort van, uh, nineties, uh, hits, hitzone. Vet. En was het goed? Ik vind het mooi, ja. Je heb, je heb, ik heb het net even stiekem aan je laten zien, maar.

116
00:17:52.834 --> 00:18:00.694
Ja, maar ik vraag het voor de luisteraar. Doe nou even leuk mee dit toneelspelletje. O, ja. En Wietse, was het goed? Het was heel goed, Xander [gelach]. Nee, het was echt goed. Maar...

117
00:18:00.854 --> 00:18:05.534
Maar je zei ook, want voor dit gesprek zei je: het is een hitrate van één op tien. Ja, dus dat was. Dus dat is niet zo heel goed.

118
00:18:06.234 --> 00:18:16.114
Nee, dus vroeger had ik een hitrate van één op de 1.000, dat, en daar bedoel ik mee dat er het woord Pokie stond waar ik om vroeg en niet Loki of Doki. Ja. En nu stond er, uh, één op de tien keer ineens perfect Pokie.

119
00:18:16.174 --> 00:18:23.374
Ja, dat is wel echt mooi. Echt mooi. Ja. En daarnaast stond er weer Pakkie Pakkie, maar dat was gewoon even hoe het, hoe het gaat of, of iets heel morphy en weird.

120
00:18:23.734 --> 00:18:34.314
En een aantal keer stond erbij: non suitable for work, content not showing. Toen dacht ik: hoe heb je van deze prompt per ongeluk iets- [lacht] Porno. Zit daar het woord poking in? Ik weet het niet. Ja, precies.

121
00:18:34.354 --> 00:18:43.544
Dat ging dus, uh, soms niet helemaal goed. Ja. Maar ik vond het wel, uhm, ontzettend leuk om, om mee te spelen.En uhm, moet ik even kijken. Ja, je kunt.

122
00:18:43.584 --> 00:18:51.884
Ik denk dat je het beste even naar de blog kunt gaan van Stability AI om te kijken. Het zit nog niet in al hun tools. Je moet even goed zoeken om deze dit nieuwe model te pakken.

123
00:18:51.964 --> 00:19:01.744
Oh, je kan niet gewoon het in Stable Diffusion gebruiken. Ja, ze hebben Dream Studio, dat is een beetje hun echt makkelijke ding en ik zag dat hij nog niet beschikbaar was in Dream Studio, maar wie weet terwijl wij dit.

124
00:19:02.044 --> 00:19:07.444
Oké, maar mensen moeten dus opletten of dat XL model ergens aan staat. Ja, want anders dan zeg je van. Dat komt vast ook in Dream.

125
00:19:07.464 --> 00:19:18.124
Dan krijg ik tweets met ik heb er allemaal woorden ingegooid en het was niet eens één op tien. Goed, vorige week ging het over kunst. Als je kunst combineert met kapitalisme, dan krijg je advertenties.

126
00:19:18.324 --> 00:19:25.644
En daar gaan we het vandaag over hebben. Ja, wat is de impact van AI op advertenties en breder gepersonaliseerde content?

127
00:19:25.664 --> 00:19:37.364
Want wat is eigenlijk nog het verschil als je iets leest tussen een advertentie en een gewone tekst? Je weet het soms niet meer. Dus we doen. We gaan het breed aanpakken. Ik ben hier ingedoken en het is toch wel

128
00:19:38.584 --> 00:19:48.204
fascinerend. Ik zie hier echt een tafel met papier voor me liggen. Ja, ja. Ja. Ja. Ja, maar ik vind dit heel leuk, dit. Deze podcast geeft mij een excuus om in zo'n onderwerp te duiken. En dan.

129
00:19:48.224 --> 00:19:59.024
Ja, ik heb gewoon een hele leuke tijd. Ja, ik dank jou daarvoor. Alsjeblieft. Wat leuk, ik ben met je mee te glimlachen. Kijk, het begon allemaal voor mij en we moeten maar even kijken hoe breed we dit gaan trekken.

130
00:19:59.064 --> 00:20:07.624
Over, over, over de komende periode. De luisteraars kunnen hem op pauze zetten en een dag later doorluisteren. Is helemaal oké. Ja, en, en wie weet wordt het vandaag niet klaar, want het is echt een heel groot onderwerp.

131
00:20:08.204 --> 00:20:20.764
Ik word er zoals altijd ongelukkig van, want het is advertenties en AI samen is een soort van recept voor dystopische werelden, dus daar gaan we ook heus wel komen.

132
00:20:20.804 --> 00:20:30.684
Maar er is ook gewoon iets vandaag al aan de hand en ik zag in de FT. Die lees ik iedere zaterdag op papier, de Financial Times. Ja, dat is echt.

133
00:20:30.724 --> 00:20:40.564
Ik voel me zo'n goed mens als ik dan daar mee over onder mijn arm met de FT loop over straat. Maar in ieder geval, dat is heel leuk. Kan ik van harte aanbevelen. De FT op zaterdag.

134
00:20:41.524 --> 00:20:52.904
Dat gezegd hebbende, daar las ik een klein artikeltje over dat Ogilvy, dat is een groot reclamebureau, dat die nu een in industry code. Ik weet niet hoe ik dat vertaal.

135
00:20:52.984 --> 00:21:06.404
Het is een soort van zelf poging tot zelfregulering van niet alleen dit bedrijf, maar ook van concurrenten. Waar ze dus, nou ja, in die sector, in die reclamesector, dat ze een code willen maken waarin ze influencers.

136
00:21:06.864 --> 00:21:14.844
Dat is volgens mij vrij breed genomen. Dus niet alleen Monica Geuze, maar gewoon iedereen die in reclame een rol speelt en met als doel heeft om publiek te beïnvloeden.

137
00:21:16.344 --> 00:21:28.264
Dat die moeten zeggen op het moment dat ze iets met AI doen. Dus dit is een beetje in de geest van dat watermerken waar jij het net over had met Eleven Labs. Je moet en dat is dan in de code dus nou ja god.

138
00:21:28.704 --> 00:21:41.044
Maar dit is dan 1111 adverteerder of een influencer moet het zeggen op het moment dat er iets met AI gedaan is. Dat is hetzelfde. Dezelfde type code die die industrie zich, die die sector zichzelf heeft opgelegd.

139
00:21:41.624 --> 00:21:49.824
Als iemand die normaal gesproken normale content deelt opeens iets gaat verkopen, een vorm van product placement, dan moet je dat ook zeggen in goede tijden slechte tijden.

140
00:21:49.864 --> 00:21:59.404
Als er een Apple laptop te zien is, dan staat er ook product placement. En is dit binnen Nederland of breder? Nee, dit, dit is in de hele wereld. Want Ogilvy op dit moment is er in Cannes.

141
00:22:00.004 --> 00:22:15.044
In Frankrijk is er een grote adverteerders beurs en Ogilvy heeft op deze beurs gelanceerd dit idee gelanceerd. En dat is om te voorkomen dat er gedoe ontstaat volgens mij.

142
00:22:15.064 --> 00:22:27.584
En omdat Ogilvy heel erg doorheeft hoe je hier heel snel een grens over zou kunnen gaan en dat zij gedoe gaan krijgen, dat is er één. Maar ten tweede zien ze ook gewoon een enorme manier om geld te verdienen.

143
00:22:27.624 --> 00:22:40.644
Weet ik vrij zeker. Zij zeggen The public deserves transparency from it being clear when you're being advertised to. To be ensured that the voice doing the advertising will be that of a real person.

144
00:22:40.884 --> 00:22:55.724
Dus je merkt, ze zijn een beetje aan het zoeken naar meneer. Wat is echt en wat is nep? En er zijn dus een groot, een, een groot groeiende groep AI influencers die op social media veel bereik hebben.

145
00:22:55.744 --> 00:23:05.704
En dit is een wereld, daar ben ik ingedoken en dat was nieuw voor mij. AI influencers bestaan. Dat zijn dus niet influencers die iets met AI doen, want daar willen ze dus een code voor.

146
00:23:06.184 --> 00:23:16.184
Maar het zijn influencers die alleen maar bestaan bij de gratie van AI. En het zijn dus. Dat zijn dus, nou ja, hoe moet je dat zeggen, een soort avatars die er steeds echter uitzien.

147
00:23:17.344 --> 00:23:25.224
En uhm, ja, die dus bereik opbouwen en de hele tijd dingen aan het delen zijn op social media. En Ogilvy heeft hier een groot belang in.

148
00:23:25.364 --> 00:23:36.264
Ook een groot belang om aan de buitenwereld te laten zien hoe ver ze hiermee zijn, want zij hebben voor een Braziliaanse retailer de grootste retailer van Brazilië. Hebben zij Lou gemaakt. En Lou is.

149
00:23:37.524 --> 00:23:48.964
Het bedrijf heet overigens Maga Lou, dus daar komt Lou vandaan. En Lou is een vrouw van. Nou, ik zou zeggen als ik haar zou moeten beschrijven. Middelbare leeftijd ziet er een beetje uit als die moeder van Kylie Jenner.

150
00:23:49.024 --> 00:23:59.864
Ja, zo ziet ze er een beetje uit. Ze is heel. Ze is heel vrolijk zou ik zeggen. Heel erg in het leven. En zij was altijd een virtuele assistent.

151
00:24:00.204 --> 00:24:10.764
Toen dit bedrijf in 2003 steeds meer online ging doen nadat ze fysieke winkels hadden. Toen was ze al geboren. Toen was zij geboren als virtuele assistent, want zij dachten dingen gaan online.

152
00:24:10.824 --> 00:24:14.264
Maar waar is dan de verkoper? Dus de verkoop moet online een rol krijgen.

153
00:24:14.704 --> 00:24:24.964
En Ogilvy heeft, als ik het goed begrijp, bedacht dat die virtuele assistent ook wel gemorfd zou kunnen worden in iets wat een bredere culturele relevantie heeft, namelijk een influencer.

154
00:24:25.004 --> 00:24:37.992
Dus ze hebben van die virtuele assistent een influencer gemaakt. Is dat een mens, zelfs mens of meer cartoon?Nee, ze ziet er heel echt uit en je ziet het nog wel. Het is een Kenny Valley terrein, maar dit is wel.

155
00:24:39.092 --> 00:24:48.252
En deze Lou heeft dus 7 miljoen volgers op TikTok en vele miljoenen volgers op Instagram en op en op YouTube. En

156
00:24:49.612 --> 00:25:02.012
die ja, als die als die, als die te zien is in de campagnes, dan is dat leuk voor het merk. Maar Ogilvy trekt dit heel ver door, dus die zijn gewoon aan het kijken.

157
00:25:02.092 --> 00:25:13.832
Kunnen we van deze, van deze karakter een cultureel fenomeen maken? Echt een celebrity maken dus bijvoorbeeld. Lou stond op de voorpagina van de Vogue van Brazilië op de cover.

158
00:25:13.892 --> 00:25:19.552
Het was het covermodel en Lou komt voor in videoclips. En is het dan zo dat er een.

159
00:25:19.672 --> 00:25:27.372
Net als bij die Tom Cruise op TikTok zeg maar, dat er eigenlijk een Tom Cruise impersonator is en dat ze dan vlug nog even die dat gezicht erover doen.

160
00:25:27.532 --> 00:25:36.211
Is er een uiteindelijke team van Loes die overal gaat staan en dan met AI wordt er iets gedaan? Of is het volledig gegenereerd? Of is dat niet zo relevant? Ik denk dat het afhangt.

161
00:25:36.272 --> 00:25:41.552
Ik weet het niet, maar ik denk gewoon op basis van wat ik allemaal gezien heb, denk ik dat het afhangt van wat de uiting is. Ja.

162
00:25:41.932 --> 00:25:49.312
Dus in een videoclip, dan is Lou ook aan het meedansen en ik kan mij niet voorstellen dat dat puur uit de computer komt. Dat zal met motion tracking gedaan zijn.

163
00:25:49.352 --> 00:25:58.472
Ja, maar er zijn ook heel veel Instagramfoto's dat Lou aan het koken is. Nou, dat ik. Ik geloof wel dat dat gewoon een soort van standaard uit dat pakket kan komen, maar dat weet ik niet zeker. Check.

164
00:25:58.892 --> 00:26:11.932
Het wordt steeds beter. En Lou is wordt helemaal. Hoe zeg je dat? Adverteerders hebben daar altijd dat soort woorden voor geladen. Lou wordt geladen met allerlei. Ik word er een beetje bang van als je dat zo zegt.

165
00:26:11.952 --> 00:26:17.592
Wat betekent dat? Met allerlei karaktereigenschappen dus bijvoorbeeld Lou heeft miljoenen fans.

166
00:26:17.612 --> 00:26:25.712
En dan Ogilvy die, die, die staat er dan op om te zeggen dat als Lou ergens een standpunt over inneemt, dat dat in Brazilië impact maakt.

167
00:26:25.992 --> 00:26:34.372
Dus bijvoorbeeld ze heeft het onder de aandacht brengen van huiselijk geweld of het opkomen en pleiten voor LGBT rechten en zeggen dat heeft invloed.

168
00:26:34.452 --> 00:26:43.332
Het is niet alleen een verkooptruc, het is een beïnvloeder in de ware zin van het woord. En er was zelfs een YouTube campagne tijdens Corona.

169
00:26:43.442 --> 00:26:51.172
Aan het begin van de coronapandemie kwam Lou naar buiten met een reeks YouTube video's met berichten en ik vind het echt zo grappig.

170
00:26:51.212 --> 00:27:03.162
Berichten over de gevaren van nepnieuws en wat er kan gebeuren als mensen dat ze zich zorgen maken over de kwaliteit van informatie en wat er dan kan gebeuren als er een pandemie is, als de kwaliteit van informatie niet zo hoog is.

171
00:27:04.332 --> 00:27:16.912
Daarnaast is hij zeer uitgespreid uitgesproken op het gebied van gelijkheid, klimaatverandering en een andere hele hoop andere culturele kwesties. Het feit dat een fake

172
00:27:18.632 --> 00:27:24.392
poppetje je aan het waarschuwen is voor fake news tijdens een pandemie vind ik gewoon hilarisch.

173
00:27:24.732 --> 00:27:36.832
Maar goed, dit is dus Ogilvy die heel graag wil laten zien dat, dat, dat dit, dat zo'n robot culturele relevantie kan hebben. Wat wou je zeggen? Nou, ik zit te denken van van wie is Lou? Dat is wel interessant.

174
00:27:36.872 --> 00:27:44.432
Waarschijnlijk van het bedrijf helemaal. Ja. En dan is ook. Ik moest ook meteen denken van wat interessant. Want het idee van een

175
00:27:45.992 --> 00:27:54.532
ja, net als een posterkind, dat dat, dat ze dat, dat is een beetje dat of een talking head. Dat je een dat je een, een figuur hebt die representeert. En dat is bijvoorbeeld

176
00:27:55.572 --> 00:28:05.272
binnen de politiek altijd een beetje een ding dat je dan de hele Nederlandse overheid is, is Mark Rutte of zo. Ik bedoel, en ik begrijp dat hij in een positie zit en maar dat dat is niet een koning of zo.

177
00:28:05.312 --> 00:28:17.252
Ja, er zullen misschien luisteraars zijn die zeggen nou, zo gedraagt hij zich wel, maar meer van je. Ik kan me voorstellen dat oké, mijn idee daarbij is dat er een soort behoefte is aan dat het eigenlijk één persoon is.

178
00:28:17.312 --> 00:28:27.632
Dat, dat, dat het heel complex is om een hele overheid of een heel bedrijf te bevatten als mens. Ook voor mij. Ik ben niet een of ander supermens die dat wel kan zien, waardoor het heel fijn is.

179
00:28:28.372 --> 00:28:40.812
Je kan het zelfs een beetje spiritueel maken dat er bijvoorbeeld één god is die een volledige religie verantwoordt en dat je dan. Wij als mens vinden dat gewoon fijn. Fijn ja. Gewoon één entiteit, die kan je dan.

180
00:28:40.852 --> 00:28:47.752
Nou ja, die kan je dan aanbidden of mee praten of boos op zijn en alles opschuiven zeg maar. Thanks Obama, zoiets. Ja, ja, ja.

181
00:28:47.772 --> 00:29:00.932
Nou maar en, en daar, daar moest ik aan denken van ja, maar dat was in de fysieke ruimte dus soms al waar je had. Je hebt CEO's, minister-presidenten ja, en geestelijk leiders om zo even alle drie te noemen.

182
00:29:01.392 --> 00:29:15.372
Daar wordt dan van alles opgelegd en geduwd, terwijl daar een compleet organisme organisatie achter zit. Ja, maar nu worden daar dus echt geboren in die bedrijven. Ook tokens, poster kinderen voor, voor die bedrijven.

183
00:29:15.412 --> 00:29:29.752
En ja, dat. Ik zat meteen te denken gaat de Nederlandse overheid ook een louw maken die langer dan die gaat regeerperiodes overleven? Volgens mij is het woord dat je zoekt is mascotte. Dat is een mooi woord. Dank je wel.

184
00:29:29.812 --> 00:29:35.832
Ja. Mascotte Ja. Ja. Ja. Ja. Dus want dit is dan een. En dat die bedrijven daar natuurlijk als eerste op zitten, op die mascottes, ja, dat is logisch.

185
00:29:35.892 --> 00:29:48.572
Ja, maar ik zie, ik zie meteen allerlei toepassingen voor iedere organisatie die moeilijk te bevatten is. Ja, en dit is natuurlijk in dat opzicht niet per se nieuw, maar de orde van grootte.

186
00:29:48.632 --> 00:29:55.852
En even een DM'tje sturen naar Lou. Dat is wat anders dan het Michelin mannetje. Daar kon je niet mee praten. Los van het feit dat het sowieso een eng ding is.

187
00:29:55.912 --> 00:30:06.692
Nee, maar het heeft heel veel facetten, de inzetbaarheid ervan. Dus je kan opeens allemaal dingen laten maken die ook nog eens persoonlijk zijn voor mensen.

188
00:30:06.912 --> 00:30:17.284
Je kan Lou met individuen laten praten, zoals het ook begonnen is als virtuele assistent.Dus dat zou de overheid ook kunnen doen. Dat is natuurlijk heel grappig dat je met de mascotte van de overheid zou kunnen praten.

189
00:30:17.304 --> 00:30:26.544
Beetje random voorbeeld, maar dat zou natuurlijk kunnen technisch en ze kunnen het op allerlei verschillende. Weet je, nu moet je als jij een fotoshoot wil doen met weet ik veel Mark Rutte.

190
00:30:26.584 --> 00:30:34.424
Moet je voorstellen hoeveel geld dat allemaal kost om dat te regelen, om een reclame te maken of wat dan ook. En stel nou je zou die mascotte gewoon. Je hebt. Je hebt gewoon een 3D-model.

191
00:30:34.744 --> 00:30:46.624
Je hebt er bepaalde regels voor hoe je die inzet en je kan eindeloos assets noemen ze dat in advertenties eindeloos assets maken. Ja, en ik merk even nog terugkomen op waar jij begon over een soort van code of conduct.

192
00:30:46.684 --> 00:30:52.984
Dat er afspraken gemaakt worden over hoe dit dan ingezet gaat worden en een soort zelfregulatie binnen die industrie die hij eigenlijk aankondigt daar.

193
00:30:53.484 --> 00:30:58.904
En dat ik zit te denken dat ik het misschien intuïtief als ontvanger van al deze boodschappen,

194
00:30:59.824 --> 00:31:07.464
als degene die Lou geconfronteerd wordt met Lou, misschien wel fijn vindt als we zeggen we gaan niet een synthetische Mark Rutte maken.

195
00:31:07.764 --> 00:31:16.643
Dus ik ga niet dat ik straks een Instagram-post krijg van een man die een lintje doorknipt dat eronder staat. Ja sterretje. Let op het was synthetic Mark, een van zijn understudies. Hij zit gewoon thuis.

196
00:31:17.104 --> 00:31:26.564
Dat vind ik vreemd. Dan voel ik me voorgelogen of zo. Maar als ik weet nee, er is gewoon Mark, the guy en Lou. Ik zeg even nog steeds Lou, maar we gaan. Iemand anders. Een verzonnen karakter.

197
00:31:26.844 --> 00:31:37.284
Ja, die heeft waarschijnlijk een acroniem in het Nederlands. Vreselijke naam. Nou Loeki de Leeuw of zo. Of we doen iets met de Nederlandse vlag. Ja, Loeki de Leeuw. Doe even Loeki de Leeuw. Loeki de Leeuw.

198
00:31:37.304 --> 00:31:47.144
Die pakken zij. Die appropriaten gewoon Loeki. Dat is de nieuwe woordvoerder van de overheid. [lacht] Loeki. Ja. Nou ja, goed. En dan. Maar dan ben ik als, als, als burger in de relatie tot overheid.

199
00:31:47.164 --> 00:31:56.663
Ik denk nee, maar dat is Loeki. Loeki. Loeki is fake. Ik ben nu. Ik vind nu Loeki al leuk. [lacht] Ik heb hem helemaal nog niet ontmoet. Nou, wel een beetje al vroeger. Maar goed.

200
00:31:57.244 --> 00:32:04.824
Ik zou heel vet zijn als Loeki dan ook echt een karaktertje heeft, zoals Sydney van Bing in het begin. Ja, wat dacht je van- Dat hij ook chagrijnig wordt als je dezelfde vraag te vaak stelt?

201
00:32:04.954 --> 00:32:17.344
Wietse, weet je wie ze ook tot leven gaan brengen? Dat mannetje van die bioscoopreclames, die dan op de [zingt] Die is toch dood? Nee, die springt dan toch daarop zo. Dat is Mineur. Ja. Sean Mineur.

202
00:32:17.444 --> 00:32:27.204
Ben ik te lang niet in de bioscoop geweest? Ik denk echt dat is wel de jaren negentig. [lacht] Luister als intro dude. Sindsdien- Wij leven daar. Sindsdien ben jij je huis niet meer uit geweest. Ja. Ja.

203
00:32:27.244 --> 00:32:39.364
Maar dit is wel, dus eigenlijk, jij zegt nu, wat ik je zo hoor zeggen is Wietse, mascottes hadden we al. Ja. Maar, dus er ligt al heel veel potentie om iets, iets tot leven te wekken. M-hm.

204
00:32:39.904 --> 00:32:54.904
En dat, en dat gebeurt ook al op grote schaal eigenlijk. Ja. Ja, wel interessant hoor. Dus van deze Lou ging ik over naar Miquela. Miquela is een ander 3D gemaakt karakter en die is echt wel live, lifelike.

205
00:32:55.504 --> 00:33:08.384
Een, een echt uit, een echter uitziend karaktertje. Die heeft dus ook, die is negentien, dus een Gen Zer. Die houdt van fashion en uitgaan en muziek. En die heeft een heel, die heeft een heel life story.

206
00:33:08.464 --> 00:33:21.264
En die post dus heel veel plaatjes op Instagram, maar is vooral ook groot op TikTok en op Instagram. En die maakt op, die maakt filmpjes als een YouTuber. En dat is heel mooi gemonteerd allemaal.

207
00:33:21.304 --> 00:33:31.184
Echt zoals, nou, het heeft superhoge production value en die deelt gewoon dingen uit het leven van een negentienjarige of wat haar is opgevallen. Of ze heeft een filmpje gezien en daar praat ze dan over en bla.

208
00:33:32.424 --> 00:33:41.884
En het is heel, uhm, ik vond het, ik vond het fascinerend om te zien. Omdat het, uhm, omdat allemaal mensen praten de hele tijd met haar in die comments.

209
00:33:42.024 --> 00:33:49.104
Dus ze reageren op wat ze zeggen, zoals ze dat doen met een YouTuber, zoals een echte YouTuber praat. Maar zij is dus heel expliciet over het feit dat ze een robot is.

210
00:33:49.424 --> 00:34:01.344
En het is bijna als wat jij net zei, soort van als, als het een nep Mark Rutte is, dan voel ik me genaaid en zij omarmt dat volledig. Ik ben een robot. Ja, dat lijkt me het beste. Dat gezegd. Dat lijkt me het beste.

211
00:34:01.584 --> 00:34:11.644
Maar het mooie is dus dat het niks doet met mensen. Geeft helemaal niet. Nee, het maakt niemand niet uit en mensen reageren er met dezelfde emotie op als dat het gewoon een YouTuber is.

212
00:34:11.724 --> 00:34:14.264
En ik vraag me oprecht ook af wat nou precies het verschil is.

213
00:34:14.344 --> 00:34:32.884
Of je nou naar Kalvijn zit te kijken, wat ook gewoon bordkarton is en een optelsom is van, weet je, zo'n moderne YouTubers zijn ook gewoon robots, want het zijn mensen die input en output heel goed begrijpen en precies weten hoe ze de input moeten verwerken tot kwalitatieve output, als ik het even zo mag zeggen.

214
00:34:32.944 --> 00:34:36.363
Dus als ik een video maak over X, dan weet ik dat de fans daar lijp van gaan worden.

215
00:34:36.784 --> 00:34:43.644
Of ik ga nu iets heel controversieels zeggen en ik ga daarmee een hele dynamiek in werking zetten waardoor ik weer meer views heb op deze video. Ze gaan best wel algoritmisch te werk.

216
00:34:43.684 --> 00:34:52.534
Ja, ze gaan nu al algoritmisch te werk, alleen het zijn mensen, dus die doen dat niet super optimaal. En hier is het gewoon helemaal, hier hebben ze het gewoon helemaal omarmd dat het een robot is.

217
00:34:52.594 --> 00:35:04.544
En ik vraag me ook echt af als kijker wat nou precies het verschil is tussen kijken naar Kalvijn of naar Miquela. En hier zit dus een bedrijf achter, uhm, wat dit soort AI-influencers maakt.

218
00:35:04.824 --> 00:35:10.844
En Miquela is hun, hun grote voorbeeld. Of hun groot, hun grootste karaktertje.

219
00:35:12.364 --> 00:35:22.224
En wat ik dus grappig vind, is dat zij een campagne hebben gedaan om, zoals een influencer groot wil worden, hebben ze ook met haar een campagne gedaan. En wat hebben ze toen bedacht?

220
00:35:22.664 --> 00:35:36.964
Ze hebben haar Instagram-account laten hacken. Miquela wordt gepositioneerd als een soort van social justice warrior, dus ze is de hele tijd aan het praten over klimaat en over LGBT-rechten.

221
00:35:37.024 --> 00:35:53.524
En nou, dit, dat is onderdeel van haar karakter. M-hm. Maar zij is dus gehacked door een pro-Trump karaktertje. Dus opeens was ze heel erg anti-homo. En, uh, uh, uh, andere- Dit was onderdeel van een- Ja.

222
00:35:53.904 --> 00:36:06.580
Dat was, dat was fake. Ja. Ook het hacken was fake. Ja. Dus, dus de, er was een zelfverklaarde robot supremacist. Een CGI-personage genaamd BermudaDie had haar eigen Instagramaccount.

223
00:36:06.640 --> 00:36:17.700
Dit was een blonde del die je voor je ziet als soort van prototype Donald Trump. Als dit echt gebeurd zou zijn, dan kun je een. Dit is helemaal zo bedacht door de. Dit is dus bedacht door dat bedrijf. Die hebben daar.

224
00:36:17.860 --> 00:36:31.720
Bermuda heeft haar account, dus haar. Het account van Michaela gewist en plaatst vervolgens foto's van zichzelf en vervolgens beschuldigt ze Michaela ervan dat ze nep was en dat ze haar volgers bedriegt de hele tijd.

225
00:36:31.960 --> 00:36:44.260
De ironie is natuurlijk dat Bermuda ook niet echt is. Daarna stelden ze een ultimatum. Michaela kon haar account pas terugkrijgen als ze beloofde de waarheid te vertellen. De ja, helemaal in Trump trumpiaanse dingen.

226
00:36:44.280 --> 00:36:59.320
En de volgers van Michaela? Die raakten hierdoor heel erg van streek. Breng de echte Michaela terug, riepen ze. En dit is dus een soort complot gedreven naar narratief werd er op uit. Werd er over uitgestort. En dit,

227
00:37:00.940 --> 00:37:10.660
dit hele was een soort van soap die zich via Instagram ontvouwde. En die kon je dus vanuit meerdere hoeken bekijken, ook vanuit het personage van deze pro-Trump robot.

228
00:37:11.340 --> 00:37:21.440
En uiteindelijk was de onthulling dat Bermuda geen mens is, maar een robot is. En ze wilde. Ze gaven de schuld aan het moederbedrijf.

229
00:37:21.580 --> 00:37:33.900
Wat ik zo interessant vind aan dit soort verhalen is dus dat al die dingen die we tegenwoordig bedenken als dystopische scenario's, dus het hacken van de ene robot van een andere robot, dat ze dat gewoon doen.

230
00:37:34.260 --> 00:37:40.160
Maar dat ze de hele. Maar dat daaronder een soort van laag van zelfbewustzijn ligt over het feit dat het allemaal onderdeel is van het kapitalisme.

231
00:37:40.300 --> 00:37:44.920
Dus dat er een moederbedrijf is die een investering heeft gehad, die dit soort verhalen verzint om engagement te krijgen.

232
00:37:44.960 --> 00:38:00.720
Daar zijn ze vervolgens open over dat dat zo is en iedereen gaat dan gewoon mee in die in dat verhaal. Dus het heeft dezelfde emotionele emotionele resonantie en het is een en en het het het het. Het is heel eerlijk.

233
00:38:01.420 --> 00:38:12.700
Eerlijk is een beetje gek woord hierin, maar eerlijk in in, in het feit dat je ja, dat het gewoon een verzonnen gemanipuleerd. Dat je gemanipuleerd wordt als kijker. Ja, ik vind het interessant, want dat soort van

234
00:38:14.040 --> 00:38:18.620
wat je ook heel erg veel in Hollywood ziet nu dat heel veel films soort zelfreflectief zijn.

235
00:38:18.640 --> 00:38:25.840
Dus die gaan dan breken de vierde ja ja ja ineens in de camera kijken, dan zit je daar in de bioscoop dat jij denkt huh, weet je wel. Ja dus. Wat is dit?

236
00:38:26.440 --> 00:38:33.180
Maar dat dat een soort van zichzelf niet al te serieus nemen, waardoor het meer authentiek is. Alsof authentiek is. Heel sneaky is.

237
00:38:33.760 --> 00:38:43.260
Want jij zei net eerlijk en je had je twijfelde over dat woord omdat je ook intuïtief voelt. Maar we worden toch voor de gek gehouden. Maar als je dat dan zegt, je wordt voor de gek gehouden, dan mag het of zo.

238
00:38:43.320 --> 00:38:56.120
Ja, precies waar. Ik Ik voel nu terwijl je dit allemaal vertelt, dat ik. Ik weet niet zo goed of ik dit goed onder woorden kan krijgen, maar waar mij, waar ik waar mijn zorg een beetje zit, is als je dan kijkt naar

239
00:38:57.460 --> 00:39:08.600
even terug naar de basis van publiek en privaat. Oftewel als je naar een park loopt, mogen we dat park met elkaar delen. Gewoon een park hier in Amsterdam. Maar als je naar,

240
00:39:10.360 --> 00:39:21.560
noem eens wat leuk een dierenpark gaat of de burger zoo, dan bevind je je binnen de contreien van een van een bv en NV. Ja, en dat maakt het een privaat verhaal en dan moet je eind van de dag ook weg.

241
00:39:21.580 --> 00:39:25.920
En nou ja, in parken tegenwoordig ook wel eens, maar er zit een soort. Ik snap wat je bedoelt, dat is een verschil.

242
00:39:26.080 --> 00:39:31.840
En ja, en ik moet eerlijk zeggen, zelf ben ik daar best wel lang vrij naïef over geweest van wat is dat publieke en private.

243
00:39:31.860 --> 00:39:38.930
En pas toen ik erin dook dat ik dacht o, dus die NS was eerst van ons allemaal en toen was de NS een bedrijf, want dan kon je concurreren en kreeg je marktwerking.

244
00:39:39.040 --> 00:39:44.920
Want dat is mooi, want het houdt mensen scherp, want in in het privaat of in het publieke heb je dat dan niet. Maar dat is geen concurrentie.

245
00:39:45.040 --> 00:39:57.920
Maar er zijn heel veel dingen en er zijn ook heel veel dingen die juist publiek moeten zijn. Nou, hierbij is het zo dat kijk, als ik nu. Ik interacteer nu met jou hier. Van wie ben jij?

246
00:39:58.880 --> 00:40:07.360
Ik bedoel, dit is niet een of andere conspiracy vraag en ik ga hem zelf even beantwoorden, want anders dan verdwijn je echt onder de tafel. Jij denkt echt van wie ben ik eigenlijk? Ik weet niet waar dit heen gaat.

247
00:40:07.400 --> 00:40:22.200
Nee, ik heb. Laten we zeggen dat er een om een impliciete publieke ruimte bestaat voor waar wij allemaal in bestaan. Ik ga. Het komt goed. Ja, dat betekent jij. Je bent een een levend wezen met een met een bewustzijn.

248
00:40:22.240 --> 00:40:33.140
Ik zit hier met jou te praten. We gaan niet simulatie dingen erbij halen. We houden het gewoon even hoe het hier nu is. Ja, en jij? Jouw algoritme, jouw menselijkheid, jou en algoritme is dan een soort.

249
00:40:33.760 --> 00:40:42.080
Want je bent geen algoritme, maar veel bizarder dan dat. Maar jouw wezen zoals jij hier nu aan tafel zit. Is geconditioneerd.

250
00:40:42.240 --> 00:40:47.000
Nou, we kunnen wel zeggen dat jij van iemand bent, namelijk van de Nederlandse samenleving, want je spreekt onze taal en cultuur.

251
00:40:47.280 --> 00:40:59.010
Maar dan nog is het wel zo dat jij niet draait in een datacenter van iemand nu en dat jij nu dingen kan gaan zeggen omdat het iemand zegt dat jij dat moet zeggen. Je bent niet een puppet. Ga ik even van uit. Ik ook niet.

252
00:40:59.200 --> 00:41:05.120
Maar neem niet weg dat ik wel loyaliteiten heb. Zeker. Dus je bent niet volledig. Het is niet zo van dat dit nooit heeft bestaan waar we nu in belanden.

253
00:41:05.160 --> 00:41:11.260
Het is eigenlijk de rode draad door al onze eerdere discussies is het zijn extremen. De vorige keer hebben we over kunst gehad en kapitalisme.

254
00:41:11.740 --> 00:41:21.300
Dat we zeiden ja, kunstenaars hadden het eigenlijk altijd al moeilijk, maar nu wordt het wel heel absurd als ze volledig nagemaakt kunnen worden met een klik. Wij waren nooit helemaal onafhankelijk.

255
00:41:21.340 --> 00:41:36.140
Wij waren allemaal semi puppets van onze eigen waarden en ideologieën. Maar Lou is helemaal van een bedrijf. Ja. Ja. En ik vind het. Lou is privaat. Wij zijn publiek.

256
00:41:36.420 --> 00:41:47.220
En er kunnen nu mensen luisteren zeggen jullie zijn ook privaat, want jullie hebben al je, je, je entanglement. Maar wij, wij, onze geest mag bestaan in een soort open ruimte.

257
00:41:47.500 --> 00:41:54.820
Ja, en daar kunnen we allemaal filosofische kanttekening bij plaatsen. Of dat hoe open dat is. Fijn. Bij Lou hoeven we daar minder vraagtekens bij te plaatsen.

258
00:41:54.840 --> 00:41:59.680
Misschien moet ik even Lou pakken als een meer van wat het duidelijk niet is om het scherper te krijgen.

259
00:42:00.120 --> 00:42:17.244
Wat ik bijzonder vind is dat ik dan dat ik straks als burger, klant, mens, consument, hoe je maar ook definieert, interacteer met andere wezens waarvan een deelUh in het bezit is een puppet is van een Ja. Van een partij.

260
00:42:17.394 --> 00:42:27.544
Ja. Het kan een Nederlandse overheid, overheid zijn met Loekie. We hopen allebei dat het Loekie wordt. Uhm en Een wezen met een belang. Een heel helder belang, namelijk shit verkopen. Nou ja, heel helder voor wie?

261
00:42:28.004 --> 00:42:39.403
Want ik bedoel ja, nee, maar ik zit nu. Want Maar dat is voor alle influencers toch? Nou ja, tuurlijk. Je kunt zeggen uh over de top tien YouTubers in Nederland, wie zijn hun sponsor, sponsoren? Ja.

262
00:42:39.544 --> 00:42:51.064
Dus zijn ze niet allemaal. Dat klopt. Maar nu, op het moment dat uh Shell een eigen poppetje maakt die op YouTube zit. Ja stel en we willen dat ook nog graag zien ook nog. We gaan er vrijwillig naar kijken.

263
00:42:51.104 --> 00:43:03.324
Dat is wat jij zegt en ik denk dat je gelijk hebt. Mhm. Volgens mij is dat zo. Ja, ja. Uhm, dan laat ik het zeggen de de onze ruimte waarin we interacteren met wezens Ja.

264
00:43:03.364 --> 00:43:16.094
Wordt meer en meer gevuld met wezens die honderd procent van een private organisatie zijn. Ja. Terwijl wij voorheen met z'n allen in ieder geval semi publieke wezens waren. Nou, en dat is Zou ik het ook kunnen zeggen.

265
00:43:16.284 --> 00:43:28.024
Interacteren inderdaad met private organisaties. Maar laten we wel wezen, de opkomst van het intermediëren is al door private organisaties is al Ja. Heel lang aan de hand namelijk.

266
00:43:28.724 --> 00:43:39.084
Prima dat je af en toe nog luistert naar vrije geesten zoals uh jij en ik in deze podcast. Omdat er zijn geen sponsors in deze podcast. Vooralsnog. Vooralsnog. Ja, weet ik eigenlijk niet.

267
00:43:39.104 --> 00:43:42.404
Misschien heb je wel een preroll gehoord, maar daar heb heb ja, hebben we niet veel aan verdiend.

268
00:43:43.044 --> 00:43:59.384
Uhm en uhm maar de de reden waarom je deze podcast bent gaan luisteren is waarschijnlijk omdat de een of andere algoritme bij Twitter heeft gezegd uh deze tweet ga je nu zien met een link eraan of Spotify die het in zijn uh meest meest beluisterde of wat, wat voor aanbevelingsalgoritme dan ook.

269
00:43:59.644 --> 00:44:09.044
Dus de int de de keuze om informatie bij te krijgen is al heel lang geintermediaird door bedrijven. Misschien. Het wordt nu nog extremer. Ja, en ik wil, ik wil ook e-even heel helder maken voor de luisteraars.

270
00:44:09.864 --> 00:44:20.044
Het is niet zo dat ik nu ineens wakker word en denk huh, er zijn straks wezens die belang hebben van bedrijven, natuurlijk niet. Ik denk niet dat niemand. Ik denk niemand vindt jou naïef hierin. Ik denk dit is gewoon.

271
00:44:20.084 --> 00:44:28.684
Het is bijna moeilijk om voor te stellen hoe wezenlijk dit waarschijnlijk gaat zijn als je naar Lou en Michela kijkt. Hoe wezenlijk dit gaat zijn voor ons allemaal over een paar jaar.

272
00:44:28.704 --> 00:44:36.304
Dat wij vrijwillig naar dit soort robots gaan zitten kijken. Ja, en ik heb. Ik moet nu denken aan Ricky Gervais heeft ooit in een van zijn, comedian doet al The Golden Globes.

273
00:44:36.404 --> 00:44:41.664
Mag niet meer volgens mij inmiddels, maar goed. Ricky van al zijn mooie programma's ook die hij heeft gemaakt. After Life tip. Uhm,

274
00:44:42.764 --> 00:44:56.004
die heeft ooit in een interview gezegd waar hij van, hij zei: ik heb een tip voor wat ze bij Twitter moeten doen. Uh, dat is de font size. Dus gewoon let-letter, de lettergrootte van tweets moeten, die moet je verdienen.

275
00:44:56.784 --> 00:45:04.994
Uh, dat was het. Dat was het en dat is dus dat gaan we niet doen. En dat is een slecht idee. Maar zei, want hij zei: Ja. Nu is het zo dat iedereen die op straat in een prullenbak leeft, zeg maar Ja, ja.

276
00:45:05.004 --> 00:45:10.384
Die heeft dezelfde font grootte als ik, zei die. En hij zei niet: ik moet groot worden. Misschien moet je maar juist heel klein maken. Aha.

277
00:45:10.524 --> 00:45:20.924
Maar het idee is dat er een, uh dat is ook iets idealistisch moois, dat op het moment dat jij door die feed heen scrolt of op het moment dat jij door je WhatsApp heen scrolt of het moment dat je door je TikTok heen scrolt.

278
00:45:21.404 --> 00:45:28.964
Alle video's zijn even groot, alle video's mogen even lang zijn, iedereen is gelijk. En dan pas ik dat even toe op dit verhaal.

279
00:45:29.104 --> 00:45:42.124
Als ik dus door, laten we zeggen TikTok heen ga, dan wisselt mijn interactie met wezens dus af tussen fully corporate owned fake entities Mhm. En mijn beste vrienden. En die komen gewoon dwars door elkaar heen. Ja.

280
00:45:42.184 --> 00:45:52.844
En dan, dan is het misschien leuk dat ik rationeel weet dat de een uh Lou is en Loekie en dat de ander uh Ruben en Hans is. Maar ik denk ik weet niet of ik dat.

281
00:45:52.904 --> 00:46:03.984
Ik denk dat ik dat emotioneel niet begrijp, dat ik dat emotioneel gelijk ga zetten. Mhm. En daar zit een zorg voor mij. Want voor zover ik weet zijn Ruben en Hans niet corporate puppets. Mhm.

282
00:46:04.233 --> 00:46:15.504
[lacht] Maar Loekie en Lou zijn wel puppets van iets en het het puppet zijn is zo, wordt zo helder. Ja. Of niet juist? Nou en, en er zijn ook uh scenario's denkbaar waarin je een mix maakt tussen de twee.

283
00:46:15.604 --> 00:46:25.744
Dus dat je een influencer hebt. Stel uh, jij en ik, wij zijn influencers. Ja, ik zie je nu raar kijken, maar je bent het toch echt, Rick. Ik zak echt van mijn stoel, maar het is oké.

284
00:46:25.904 --> 00:46:37.044
Jij bent helaas een influencer geworden toen jij onder andere begon aan deze podcast. Ik ga erbij komen terwijl jij verder praat. Ja, en stel nou dat je jouw uh stem kan klonen. Dat weten we.

285
00:46:37.244 --> 00:46:46.444
En dat we jouw uh gezicht kunnen klonen en de manier waarop jij praat. En er is een adverteerder die weet die doelgroep van Wietse op zijn social media.

286
00:46:46.744 --> 00:46:56.684
Die heb jij niet, weet ik ook wel, maar stel of doe het van mij, kan ook. Stel de doelgroep van die van de doelgroep van Clubbing. Dat is een heel interessante, interessante doelgroep voor ons product.

287
00:46:56.924 --> 00:47:05.044
Stel ik ben een verkoper van maaltijdboxen. Ik noem maar even wat. [lacht] Bijzonder. Bijzonder voorbeeld. Ja, whatever. En uh

288
00:47:06.244 --> 00:47:26.844
vervolgens kun jij mijn kun jij met uh kan ik een vinkje zetten bij Instagram in het dashboardje dat ik het oké vind om mijn likeness, dus stem en uhm en beeld om die te kunnen modelleren en die dat adverteerders die kunnen gebruiken zodat er gepersonaliseerde reclame gemaakt kan worden voor die doelgroep van mij die dan ik.

289
00:47:27.264 --> 00:47:35.764
Kijk, nu moet ik dan als influencer moet ik dan een spotje opnemen voor maaltijdboxen van oh lekker paksoi, want ik hou heel erg van paksoi. Dit kun je ermee maken. Koop HelloFresh.

290
00:47:36.834 --> 00:47:43.264
Dat moet ik nu met de hand doen en werk en zo en ik neem eens een filmpje op en dat is goed of niet goed. In ieder geval heel inefficiënt proces.

291
00:47:43.344 --> 00:47:56.944
Stel nou, ik kan een vinkje zetten en die hele commercial wordt individueel gepersonaliseerd gemaakt met mijn stem en mijn gezicht en wordt in die wordt in mijn feed gezet waardoor ik ook echt het waardoor ik ach de afzender ben van die reclame.

292
00:47:56.964 --> 00:48:06.574
Zeg het maar. Gaan we dit doen? Ga jij dit doen? Nou, ik. Wat voel je nu als je dat zo? Ik ga dit niet doen, maar reken maar dat heel veel mensen dit gaan doen, Wietse. Wat jij nu had gezegd Het gaat gewoon gebeuren.

293
00:48:06.604 --> 00:48:18.380
Ik doe dit al, dan was ik niet ineens boos geworden. Oh jij, jij. Ik ben gewoon nee, maar intuïtief zeg jij nee, dit dit wil ik niet. Nee, ik doe dit niet, maar ik denk dat er. Nooit?Nee, ik.

294
00:48:18.660 --> 00:48:30.180
Dit lijkt mij bijzonder onprettig. Maar, maar, maar het gaat ook niet om mij. Het de. Ik denk dat er gewoon heel veel mensen zijn die die geld verdienen aan hun. Hoe moet je dat nou zeggen?

295
00:48:30.250 --> 00:48:37.180
Aanwezigheid of bekendheid of wat dan ook. Die lenen zich voor dingen toch? Die lenen zich voor dingen. Natuurlijk. Ja en.

296
00:48:37.360 --> 00:48:43.120
En stel nou dat dat je dat kan doen met een vinkje en dat je hetzelfde dashboard wat een adverteerder heeft om Google AdWords uit te geven.

297
00:48:43.160 --> 00:48:52.560
Dus waarbij je gewoon een vaag idee van een demographic in kan zetten en dat dan dat dat algoritme van Google gaat optimaliseren wie die advertentie uiteindelijk ziet, want daar heb je als adverteerder niks meer mee te maken.

298
00:48:53.020 --> 00:49:01.900
Dat datzelfde ook zou kunnen gebeuren in je Instagram feed. Nou, ik denk dat jij. Fascinerend toch? Ja, 100%. Dit gaat gewoon gebeuren. Nou, jij noemt Instagram als voorbeeld. Mark Zuckerberg.

299
00:49:02.080 --> 00:49:13.420
Laatst in een interview met Lex Friedman ging dit werd dit onderwerp aangesneden. De vraag was aan Mark kan jij uitleggen wat AI is binnen jouw bedrijf? Waarom jullie daar ook zo mee bezig zijn?

300
00:49:13.460 --> 00:49:21.300
En kan je ook concreet worden? Want leuk dat je ermee bezig bent, want je moet ermee bezig zijn, maar kan je er ook echt wat mee? En hij begon meteen zonder blikken of blozen.

301
00:49:21.340 --> 00:49:32.760
Ja, het mooiste wat ik hierin zie is het idee van virtual influencers. Dat is iets anders dan wat jij net waar jij mee begon. We hebben nog niet de juiste term of ik ken die niet, maar je hebt dus het idee van Loeki.

302
00:49:32.820 --> 00:49:43.760
Helemaal fake. Helemaal gecreëerd, Helemaal geboren in een in een, in een computer. En ik, ik ben een tussending. Ik leen mijn likeness. Ik leen mezelf uit. Dat bedoelde hij met een virtual influencer.

303
00:49:44.100 --> 00:49:56.250
Dus hij zei Wij zien heel erg bij onze influencers en met onze bedoelt hij iedereen op Instagram die daar mee bezig is. Geuze. Is heel erg de vraag kunnen wij dingen? Kunnen jullie het makkelijker voor ons maken?

304
00:49:56.260 --> 00:49:59.480
Want we zijn heel de tijd DM's aan het beantwoorden. We hebben daar mensen op gezet nu.

305
00:49:59.780 --> 00:50:12.800
We moeten van alles en hij zei Nou, we hebben echt supermooie interne oplossingen nu al, waardoor zij bijvoorbeeld automatisch kunnen antwoorden, ook met audio en ook met video. En toen, dat is wat jij nu zegt binnen.

306
00:50:12.900 --> 00:50:17.960
Binnen Meta staat dit buiten kijf dat zij dit gaan aanbieden. En ik ben met jou eens.

307
00:50:18.160 --> 00:50:24.180
Niet iedereen is Alexander Klöpping, dus er gaat ook een hoop ja gezegd worden als en, en dat, want dat is een beetje die en Tom Cruise.

308
00:50:24.300 --> 00:50:33.080
Ik haal hem er even aan, want ik vind dat nog steeds een van de bizarste deepfakes die er zijn. Maar er zit dus een Tom Cruise impersonator achter die alles doet van Tom. En dan past dat gezicht erop.

309
00:50:33.100 --> 00:50:40.980
Om even duidelijk te zijn daarom is hij zo ontzettend goed, want hij doet al heel veel en de computer doet de rest. Maar dat, dat is niet ver weg. Dat dat niet meer nodig is.

310
00:50:41.000 --> 00:50:48.360
Dat je daar dan ook helemaal iemand neerzet die ook postuur van Alexander Klöpping heeft en jouw bewegingen kan. Dat, dat trainen we er wel even bij.

311
00:50:48.920 --> 00:50:58.600
En nou ja, mijn punt is eigenlijk dat in ieder geval binnen Meta vanuit het bedrijf dit als iets om fantastisch mooie dienst wordt gezien die geleverd gaat worden aan hun. Ja, ik weet niet.

312
00:50:58.620 --> 00:51:08.100
Ze noemen het volgens mij geen gebruikers, want wij zijn dan de gebruikers aan de achterkant. Maar. They're creators zegt dan. Ja klopt. Creators. Mooi. Een heel handige suite aan tools voor onze creators.

313
00:51:08.130 --> 00:51:22.640
Maar het is zo makkelijk om op door te redeneren. Want als je denkt aan, aan, aan dit soort. Als je eenmaal aanneemt oké, we gaan dus een deel van de content die we gaan kijken is persoonlijk voor ons uitgekozen.

314
00:51:22.700 --> 00:51:32.440
Dat is nu al zo. Een TikTok feed is een is dat gewoon? En dan zitten we nu nog te kijken naar dingen die gemaakt zijn door echte mensen. Nou, dat gaat gemengd worden met virtuele mensen.

315
00:51:32.540 --> 00:51:50.140
Of de echte mensen doen opeens virtuele dingen. Of uhm, de de, de, de, de robots doen echte mensen na. Je krijgt allemaal mix mixen hiervan. En dan vervolgens is dan de vraag. Welke belangen hebben die bedrijven erbij?

316
00:51:50.180 --> 00:52:00.560
Nou, dat is in de meeste gevallen is dat dus geld verdienen. Dat hebben we, hebben we bevestigd. Dus die dingen, die gaan reclame, die gaan reclame voor shit lopen maken. Net zoals influencers heel veel content maken.

317
00:52:00.660 --> 00:52:10.660
Om dan één op de tien stukjes content die ze plakken op YouTube. Daar zit reclame in voor het ding waar ze geld mee verdienen. Nou, zo zal dat met die met die synthetische wezens ook zo zijn.

318
00:52:11.280 --> 00:52:15.820
Alleen die synthetische wezens, die hebben de mogelijkheid om het heftig te personaliseren.

319
00:52:15.860 --> 00:52:26.700
En aangezien de platforms er een belang bij hebben om zoveel mogelijk geld te verdienen, hebben die ook een belang erbij om zoveel mogelijk personalisatie mogelijk te maken bij van die virtuele virtuele karakters.

320
00:52:26.720 --> 00:52:35.820
Nu ga jij nog een stap verder. Ik ga nu een stap verder, want nu is het nog zo. We kijken op een TikTok feed naar een gepersonaliseerd aanbod van bestaande video's.

321
00:52:35.860 --> 00:52:45.780
Maar wat als het een gepersonaliseerd aanbod wordt van gepersonaliseerde video's? Nou en stel nou je kan dat optimaliseren op basis van mensen hun gegevens.

322
00:52:45.820 --> 00:52:57.240
Dat is op zich niet nieuw, dat reclame die we voorgeschoteld krijgen, dat je hebt allemaal van die data brokers die dan bijhouden. Jij hebt met je creditcard betaald in een bepaalde winkel.

323
00:52:57.720 --> 00:53:12.960
Dat plaatst jou in een segment van mensen die rijk zijn. Maar je hebt een profiel ergens. Ja, maar ook ziek zijn. Om maar aan te geven hoe, hoe dat. De religie zit daar in. Er zit indicatie in of jij schulden hebt.

324
00:53:13.300 --> 00:53:27.500
Je wordt in allerlei bakjes geduwd. Nu al. En die reclame die je ziet kan op basis van die bakjes gepersonaliseerd worden. Ik denk dat we dat inmiddels aannemen, hoewel dat ook nog steeds denk ik voor veel mensen

325
00:53:28.480 --> 00:53:37.359
schokkend is als ze erachter komen wat de omvang is van dat soort personalisatie. Maar stel nou dat je het ook kan personaliseren op basis van ja, noem maar wat.

326
00:53:38.540 --> 00:53:48.220
We zouden kunnen kijken of we het kunnen doen op basis van emoties. Ik zit te denken nu als ik even mag bijvallen. Ja. Eén ding wat we zijn vergeten en dat moeten we even noemen, dat is Cora van Mora.

327
00:53:49.160 --> 00:54:00.660
Cora van Mora is een is een actrice die Cora van Mora speelde. Ik weet niet of je Cora van Mora kent. Nee, tuurlijk. Ja, ik hang aan je lippen. Loeki de Leeuw hebben we nu gehad. Cora is een veel beter voorbeeld. Ja.

328
00:54:00.860 --> 00:54:09.720
Want er staat sowieso in zij is van Mora. Zeker. Ja. Cora van Mora. Ja. Dat is helder toch? Nee, helder. Wij hebben haar gemaakt en ze is van ons. Van Mora.

329
00:54:09.860 --> 00:54:18.240
En er zitten nu mensen te luisteren die zeggen Hoe is dit anders dan Cora van Mora? Toch om even heel even terug te komen wat we net zeiden, want we hadden toch Cora van Mora al? Nou, als je. We hebben.

330
00:54:18.280 --> 00:54:29.232
Wij hebben nu al bedacht.Cora hoeft niet meer op te komen dagen. Nee. En die kan gewoon vinkjes zetten en constant consent geven voor mag Cora daar optreden? Mag Cora daar? Kunnen we Cora misschien helemaal kopen van je?

331
00:54:29.242 --> 00:54:38.572
Ik denk in de praktijk dat Cora gewoon gekocht is door Mora. Ja. Dus er misschien wat voetnoot zijn dat ze niet naakt mag verschijnen, maar verder zal het een quit claim zijn die alles weet.

332
00:54:38.582 --> 00:54:48.212
Ik hoef niet steeds op een knopje te drukken. Nee, dat moet ik niet. Nee. Nee. Daarom zeg ik van mogen we misschien Cora gewoon helemaal van je kopen? Cora Ja. Ja, toe pak maar. Ja. Nou oké, prima. Extra fee. En dan.

333
00:54:48.332 --> 00:54:57.012
Unlimited model. En wat wij nu eigenlijk zeggen is nou wat er wel degelijk veranderd is, is de hoeveelheid die gecreëerd kan worden, hoe Cora gemaakt kan worden op allemaal plekken.

334
00:54:57.372 --> 00:55:05.332
Stap één maakt het toch wel even iets anders dan hoe Cora vroeger gecreëerd werd, want ze moest op op komen dagen. Ja, en ook kon ze nee zeggen en zo op dingen. En het was ook.

335
00:55:05.352 --> 00:55:16.732
Anders dan één zin zeggen in of één reclame voorlezen, maar niet 9 miljoen. Precies. En dan, want daar zie je, gaat nu de stap verder maken. Dat is. Cora zegt tegen iedereen wat anders.

336
00:55:18.172 --> 00:55:30.012
En dan zou ik nog een stap verder willen gaan op basis van jij net zegt over emoties. Cora zegt wat op jou in het moment. Op het juiste moment bedoel je. In het moment. Dus jij zit op TikTok.

337
00:55:30.572 --> 00:55:36.912
En daardoor weet TikTok een beetje hoe jij je op dat moment voelt. Precies. En Cora gaat met jou praten op basis van dat moment. Precies toch?

338
00:55:36.972 --> 00:55:43.232
Ja, want ik denk TikTok kan heel aardig bedenken of jij bijvoorbeeld vrolijk of niet zo vrolijk bent op dat moment.

339
00:55:43.272 --> 00:55:49.672
Daar twijfel heb ik geen twijfel over dat ze dat kunnen zien op de zeg maar op op de sessie, op de sessie nauwkeurig.

340
00:55:50.272 --> 00:56:04.052
Dus als jij eenmaal aanneemt dat er dat iemand inderdaad verdrietig is en je kan dan 1111 luxe reis aanbieden naar een ver oord waar je heel blij van gaat worden dat dat een goed moment is om voor elkaar.

341
00:56:04.272 --> 00:56:18.432
Frikandel of een frikandel. Is goedkoper. Ja, ja, nee. Zeker. Zeker. Het moment waarop je iets inbrengt is natuurlijk relevant. Corendon van Corendon. Ja, ik zit. Ineens heb ik door waar alle mascottes al lang bestaan.

342
00:56:18.492 --> 00:56:29.752
Dit is echt een paar stapjes verder. Natuurlijk die Albert Heijn supermarktmanager. En nu die mevrouw, die mevrouw. Mascottes zijn een ding. Die hoeven we niet opnieuw uit te vinden.

343
00:56:29.772 --> 00:56:32.712
Nee, maar ik denk dus we kunnen dus nu wel. Ik vind dat heel interessant.

344
00:56:32.741 --> 00:56:43.012
Wat jij nu zegt is het personificeren van op basis van jouw profiel en dan ook nog eens op basis van jouw huidige emotie, van joh, neem even lekker een kaassoufflé joh, in plaats van dat je lekker blijft doorscrollen.

345
00:56:43.052 --> 00:56:49.532
Nou dus dat is er één. Dus op basis van je voorkeuren, de gesprekken die je misschien in de DM's hebt gevoerd van TikTok.

346
00:56:49.542 --> 00:56:55.452
Ik kan me ook voorstellen dat je daar op een gegeven moment dat je toegang daartoe geeft aan adverteerders. Ik vind dat helemaal niet zo vergezocht.

347
00:56:55.512 --> 00:57:02.642
Ik snap wel dat je niet de inhoud van de gesprekken doorgeeft, maar je kan wel. Het sentiment van de gesprekken zou je kunnen wegdekken als gebruiker en algemene voorwaarden.

348
00:57:03.112 --> 00:57:13.952
Of je kan zeggen ik praat over dat type onderwerpen. Dat dat gewoon onderdeel wordt van je advertentieprofiel, hoor, geloof ik zo. Maar daar gaat niemand tegen in opstand komen. Nou, dat zeg ik misschien in het begin.

349
00:57:13.972 --> 00:57:25.812
Precies dat. Maar echt, ik geef dit op een briefje dat we dit over tien jaar gewend zijn. Dat zou goed kunnen. De inhoud van onze WhatsApp gesprekken. Maar ik denk wel dat als ik door.

350
00:57:25.872 --> 00:57:35.072
Ik heb zelf geen TikTok, want ik kan daar niet mee omgaan. Dat geef ik nu even toe. Ik kan dat niet. Als in verslavingsgevoelig. Dat kan ik niet. Ik, ik, Ik kan het. Dan gooi je echt die telefoon weg. Ik kan het niet.

351
00:57:35.152 --> 00:57:38.712
Veel te eng. Ja. Milkshake. Banaan die echt veel te goed smaakt.

352
00:57:39.012 --> 00:57:49.812
Maar als ik door mijn even door een TikTok feed achtig ding heen ga, een visuele feed en dan is het ineens psst Wietse, neem een lekker kaassoufflé tje, dan gooi ik dat ding echt tegen de muur.

353
00:57:50.572 --> 00:58:00.172
Nee, maar ik bedoel om aan te geven de adverteerders als jullie luisteren. Ik zou een beetje opletten hoe ver je gaat. Ja, maar ze gaan het aan jou aanpassen. En de tolerantie die jij.

354
00:58:00.202 --> 00:58:08.412
Een naam noemen van Wietse, want dan gooi ik hem tegen de muur. Precies daar gaan we gewoon over leren. Dus het zou ook. Kijk, TikTok is dan één ding. Waarom zeg je we. We het kapitalisme?

355
00:58:08.822 --> 00:58:16.512
Maar dus TikTok is dan misschien iets wat voor jou of Bounce is. Maar dit gaat natuurlijk ook perfect kunnen blenden in games en in tv-series die jij wel kijkt. Ja.

356
00:58:16.552 --> 00:58:25.572
Dus dat Cora van Mora toch een rol kan spelen in een script? Ja, maar ja. Jezus. Moet je je voorstellen dat je er in kan schrijven op een manier die jij grappig vindt.

357
00:58:25.612 --> 00:58:37.112
Want dat is dat vind ik het vette aan het voorbeeld van die Micaela. Dat ze dus zo transparant zijn over het feit dat het reclame is en een robot is en dat het bedacht is door een bedrijf.

358
00:58:37.692 --> 00:58:46.152
Dat kan je in een in een serie ook doen. Dat kan gewoon. En dan doe je zelf effectief en dan accepteren mensen het opeens totdat je niet meer die stap hoeft te zetten.

359
00:58:46.192 --> 00:58:56.272
En gewoon Cora van Mora in een tv-serie komt omdat je dat nou eenmaal gewend bent dat er niet meer zoiets is als een break, dan een reclame en dan kun je naar de wc voor zoals dat nu bij tv-programma's gaat.

360
00:58:56.292 --> 00:59:01.452
Er komt reclame en dan kun je naar de wc toe. Nee, dat zit gewoon in het gesprek aan de talkshowtafel verwerkt.

361
00:59:01.752 --> 00:59:13.552
Misschien doe je nog een klein logootje over product placement in beeld, maar dat dat, dat is de reclame dan allemaal geblend op een manier die voor jou acceptabel is. Maar dan ik, ik, ik, mijn. Mijn zorg zit dan.

362
00:59:14.612 --> 00:59:21.892
Los van dat ik het gewoon een ja een beetje een vieze wereld vind die daar vind ik ook een beetje bang van of zo. Ik vind dat spannend allemaal hoe dat werkt.

363
00:59:21.912 --> 00:59:32.752
En er zitten ook advertenties tussen podcasts, dus het is niet helemaal schoon. En NGO's kunnen ook reclame maken en kunnen ook voor klimaatverandering kunnen we op deze manier helpen door.

364
00:59:32.792 --> 00:59:41.012
Dit is natuurlijk wat adverteerders zeggen. Advertentie is niet alleen maar wasmiddel te verkopen, het is om ideeën te verkopen. Dat is ook anders kan je niet slapen als CEO van een reclamebureau. Precies.

365
00:59:41.112 --> 00:59:49.252
Je moet jezelf een beetje lawaai, toch? Je gaat je reclame maken in je eigen hoofd. Dat is waar Lou opeens reclame aan het maken is voor progressieve waarden. Waarom denk je dat dat gebeurt?

366
00:59:49.292 --> 01:00:01.852
Omdat ze die progressieve waarden willen helpen. Maar ik zit nu te denken dat even nog los van de ethische vraagstukken en morele vraagstukken rondom of rondom die reclame en de personificeren daarvan.

367
01:00:02.652 --> 01:00:20.292
Ik heb ook een zorg dat ik denk dat een van de dingen die ons verbindt een soort lijm binnen ons, binnen de mensen is een gedeelde ervaring. En dus op het moment dat wij dingen met elkaar delen, jij en ik.

368
01:00:20.632 --> 01:00:31.240
Ik stuur je wel eens een appje van moet je dit nou zien? Of stiekem laat ik van tevoren al wat zien voor de aflevering. Bestaat. Nou, ik kan toch een share link bij zetten?Het nou dan? O, dus dan zeg jij wat nu?

369
01:00:31.420 --> 01:00:40.500
Mijn zorg is dus als jij Harry Potter leest, maar die is helemaal voor jou met Kora van Mora erin. En ik lees. Of Game of Thrones waar Kora van Mora in zit. En ik heb Loekie erin, want die vind ik leuker. Ja, precies.

370
01:00:40.620 --> 01:00:48.540
En dan ga ik zeggen heb je die aflevering nog gezien? En zeg je ja sorry, ik kan niet zoveel met deze opmerking, want ja, het is jouw aflevering. Iets dus we hebben iets anders gezien.

371
01:00:48.620 --> 01:00:58.030
Ja, maar het equivalent is een TikTok feed waarin je wel degelijk de Atomic unit van de TikTok feed wel degelijk kan delen. Die moeten er dan nog wel zijn. Ja, maar dat kan toch ook gewoon? Dus ik zou wel.

372
01:00:58.120 --> 01:01:07.120
Ik zou dan wel als maker van iets of van tv-series tot en met boeken tot en met reclame uitingen. Ik denk dat ik wel kunnen clippen of zo.

373
01:01:07.480 --> 01:01:14.480
Zoals je ook een screenshot neemt in een game of als je FIFA hebt gespeeld je hebt goals gemaakt. Kun je die delen ondanks dat jij niet hetzelfde FIFA potje gaat spelen?

374
01:01:14.740 --> 01:01:21.680
Jij zou natuurlijk dan ook kunnen zeggen dat zou weer mooi zijn van joh Wietze, ik heb nou een versie van Harry Potter gelezen met Cora erin. Ik ga hem met je delen.

375
01:01:21.740 --> 01:01:34.020
Ja, het is voor mij gemaakt, maar dit vind jij ook gaaf. Ja, die reclame ja. Ja, dat is natuurlijk het enge, want ik denk dat veel mensen bij dit soort dystopische beelden denken maar dat ga ik niet accepteren.

376
01:01:34.340 --> 01:01:43.750
Net zoals jij eigenlijk ook zegt zo van TikTok. Ik gooi het gewoon weg, want dit wil ik niet, dit gaat voor mij een grens over. Geloof ik helemaal niks van dat die grens uiteindelijk nog blijft bestaan. Ik denk dat dit.

377
01:01:43.770 --> 01:01:51.900
Ongelimiteerd. Ik denk dat dit gewoon iets is wat iedereen gaat accepteren. Kijken naar beelden van een robot. Maar we hebben even leuk als kijken naar een talkshow.

378
01:01:51.920 --> 01:02:02.720
Binnen de samenleving zijn er heel veel zaken die we niet hebben geaccepteerd met z'n allen. Ik bedoel. Zoals wat? Kinderen die roken, dat vinden we niks. Je bedoelt dat het per wet verboden is om dat te laten zien?

379
01:02:02.780 --> 01:02:14.880
Ik denk dat nou ik. Dat is misschien naïef, maar vanuit mij bedoel ik dan een kind met een sigaret op een schoolplein van twaalf. Dat vinden we allemaal. Dat vindt een groot deel van ons niet oké.

380
01:02:15.360 --> 01:02:23.690
En daardoor is er ook omdat wij, als het goed is met elkaar democratisch die wetten maken. Is dat nu daadwerkelijk rook op het schoolplein of het laten zien van kinderen op het schoolplein?

381
01:02:24.120 --> 01:02:35.180
Ja, ik heb het specifiek in mijn. Het voorbeeld wat ik een beetje wilde maken is, want ik hoorde jou zeggen en daar trok ik allemaal conclusies bij. Meteen die ik nu even expliciet ga maken. Jij zei

382
01:02:36.160 --> 01:02:47.600
Volgens mij gaan wij een hoop accepteren. Ja, daar kan ik je helemaal volgen. We gaan meer accepteren dan dat we nu ons kunnen voorstellen. Volg ik je ook in. Totdat je niet zei Maar ik hoor we.

383
01:02:47.660 --> 01:02:56.160
Daar zit een soort van relatieve relativiteit in. Het is maar net in welk tijdje leefden we. Uiteindelijk kunnen we alles accepteren. Dan trek ik even aan de filosofische rem.

384
01:02:56.200 --> 01:03:03.059
Nee, ik zeg nou, er zijn wel wat regels en wetten. Nee, maar die zijn er ook niet voor niks, bedoel ik. Nee, zeker. Maar ik, ik, ik, ik, ik, Ik.

385
01:03:03.260 --> 01:03:09.760
Ik zeg dit zo expliciet omdat ik dus denk die hele discussie van Ogilvy helemaal aan het begin waar we het over hadden ging over.

386
01:03:09.780 --> 01:03:15.860
Het moet duidelijk zijn voor gebruikers dat je met AI te maken hebt als je naar zit te kijken. Dat moeten wij zeggen, want we moeten gebruiker niet misleiden.

387
01:03:16.200 --> 01:03:26.560
Maar dan zit ik naar al die beelden van die Micaela te kijken en die zegt gewoon alsof het een pre is Ik ben een robot, dus op een. Het wordt gezegd aan het begin we moeten als.

388
01:03:26.600 --> 01:03:32.960
Als sector moeten we ons verantwoordelijk gedragen en daarom doen we nu aan zelfregulatie en daarom gaan we een watermerk erin bouwen.

389
01:03:33.460 --> 01:03:38.380
Maar die Micaela, die zegt het gewoon alsof het de normaalste zaak van de wereld is en alsof het er bijna bij hoort. Alsof het iets positiefs is.

390
01:03:38.400 --> 01:03:41.440
Net zoals sommige influencers serieuzer worden genomen als ze grote reclamecampagnes doen.

391
01:03:41.460 --> 01:03:48.460
Weet je wel dat sommige sommige van die influencers die dan en die dan gaan doen alsof ze iets opgestuurd hebben gekregen van een merk wat ze gewoon in winkel gekocht hebben omdat het je.

392
01:03:48.470 --> 01:03:56.019
Het geeft je ook een bepaalde credibility dat je dat je gevraagd wordt door een merk en dit is ik, ik, ik. Dit zou zomaar op hetzelfde niveau kunnen zitten.

393
01:03:56.100 --> 01:04:08.459
Ik denk dat de enige nuance die ik heb, want ik ik volg je volledig met joh, zij zeggen het nu nog netjes voor, maar 99,9% van de kijkers deert het helemaal niet. Dat is jouw punt. Een beetje positief ben ik met je eens.

394
01:04:09.240 --> 01:04:18.500
Ik denk alleen dat er wel grenzen zijn. Die, dat is persoonlijk, per persoon. Maar we hebben ook met elkaar weer groepen waardoor we. En als die groep groot genoeg is, gaan we terugduwen.

395
01:04:18.860 --> 01:04:23.840
En ik denk dat mijn rook op het schoolplein voorbeeld wat even een grote sprong was naar de fysieke ruimte.

396
01:04:24.460 --> 01:04:34.880
Dat ik zie een geschiedenis vol met samenlevingen die met elkaar door een hoop gedoe en gestruikel zijn niet allemaal met elkaar eens. Soms wel zeggen hé, wacht even, dit vinden we niet fijn. Ik zat. Nou voorbeeld.

397
01:04:35.580 --> 01:04:46.780
Ik zat gisteravond een video te kijken. Ik weet niet hoever dat die set. Dat het een opgezette video is kan ik, kan ik niet zo goed inschatten, maar het effect is daar. Dat was een jongetje, die ligt te slapen.

398
01:04:46.940 --> 01:04:57.400
Ik denk van een jaar of drie en die ligt in zijn slaap op een iPad te scrollen in een lichte paniek. Hij is waarschijnlijk in een nachtmerrie. Iets lukt niet op die iPad. Dus stel je even voor een jongetje op de grond.

399
01:04:57.420 --> 01:05:05.380
Die ligt te slapen. Dat is prima, dat je kinderen wel eens slaapwel is, maar je ziet hem echt perfect. Die heeft geen iPad in zijn hand, maar die droomt alsof hij een iPad in zijn hand heeft.

400
01:05:05.400 --> 01:05:13.720
En die is dus echt op zijn hand aan het scrollen. Zo en dan en maar ook en dan raakt ie, gaat hij huilen in een paniek, want ik denk dat er iets, een app niet lukt of een filmpje laadt niet of zo in zijn droom.

401
01:05:14.140 --> 01:05:19.560
En dat beeld van hoe die iPad zich geïnternaliseerd heeft in dat brein van dat kind, dat wist ik al. Dat zie ik al.

402
01:05:19.620 --> 01:05:31.600
Ik ben ook niet naïef, maar dat videootje, daar heb ik dan dat ik denk hey, wacht even, dit gaat ver zeg. Ik weet niet of of of ik dit nog wil. En misschien trek ik iets eerder aan een alarmbel, maar ik denk dat mijn.

403
01:05:31.640 --> 01:05:41.820
Het grote punt is wat ik hier laat maken is er zijn. Er zijn barrières en er zijn plekken waar veel van ons zullen gaan zeggen Ho, wacht even. De vraag is blijven we dat zeggen?

404
01:05:42.440 --> 01:05:54.120
Is het een kwestie van wennen of zijn het echt een soort harde lijnen? En dan kun harde lijnen. Het lijkt het zoveel op zelfregulering gaat neerkomen, want het is wat we eigenlijk gewend zijn in deze sector.

405
01:05:54.160 --> 01:06:05.000
Want het is een dun lijntje, ook als je het over vrijheid van meningsuiting hebt. Daarom is de wetgever niet echt geneigd om dit soort dingen heel hard. Weet je anders dan kinderporno of moord? Of ja, de of, of slander?

406
01:06:05.160 --> 01:06:15.020
Hoe zeg je dat? Ja, dat je iemand zwart maakt, toch zwart maken? Dat zijn gewoon dingen die bij wet verboden zijn. Maar maar weet je dat alcoholreclames zeggen drink met mate. Dat is niet omdat dat moet van de wetgever.

407
01:06:15.160 --> 01:06:20.900
Ik vind het heel interessant, want dat is eigenlijk ook een gesprek wat hier in zit. En die heb ik even gemist en nu hoor ik hem goed.

408
01:06:20.940 --> 01:06:31.360
Is dat jij eigenlijk zegt als ik praat over terugduwen grenzen dan zit jij heel erg van je bedoelt reguleren wetten. Terwijl ik kan het echt alleen over de mensen. Dus ik heb het niet over de wet.

409
01:06:31.820 --> 01:06:42.928
Ik heb het over hoe we met elkaar en een deel een substantieel deel van de samenleving gaat zeggen hier en niet verder op bepaalde onderwerpen. Ik hoop, ik help het je hopen.Ja mooi. Ik geloof er geen reet van.

410
01:06:43.308 --> 01:06:48.428
Maar ongelimiteerd geen reet van, want dan zijn we ultra maakbaar en dan zouden we alles accepteren wat ons overkomt.

411
01:06:48.648 --> 01:07:02.028
Ik denk dat dit toe gaat naar de, weet je, technische mogelijkheden die als het ware de weg banen voor de, de, de weg van de minste weerstand. En dat is toch in veel gevallen geweld, seks. Ja dus jij, oké, maar dan nog.

412
01:07:02.268 --> 01:07:11.398
Emotie. Ja, als het voldoet aan de weg van de weerste, minste weerstand, dan zijn er, uh, opvallend weinig barrières die wij als mens op de lange termijn.

413
01:07:11.398 --> 01:07:21.208
Als jij tien jaar geleden had gezegd dat er nu TikTok zombies zouden zijn, dan, uh, dan had ik je niet geloofd. Het is wel gebeurd. We hebben het ook toegelaten en we blijven het toelaten.

414
01:07:21.228 --> 01:07:26.748
Je mag het zelfs als je op de middelbare school pauze wil TikTokken, dan mag dat gewoon. Maar als het. Als je veertien jaar bent.

415
01:07:27.138 --> 01:07:38.688
Als de telefoontjes wel in kastjes moeten op bepaalde scholen en zo, dan is er iets van terug. Een klein aantal scholen hoor. Wat ik dus ook zat te denken was die, uhm, die Vision Pro. Dat we het niet meer over hebben.

416
01:07:38.788 --> 01:07:47.968
Nee. Nee, mag hoor. Jawel, jawel. Maar het is een, het is een instrument van de dystopische wereld waar wij het nu over hebben. Ja. Ja, tuurlijk. Amen. Want gezichtsherkenning, dat doet dat ding.

417
01:07:48.208 --> 01:07:56.128
En die kan dus ook emoties herkennen. En dat heeft hij nodig om die digitale avatar die van jou bestaat om FaceTime calls te doen in de eerste versie van het apparaat.

418
01:07:56.508 --> 01:08:08.228
Dat hij dus een, een, een gezichtssprint moet maken waar de emotie overgebracht wordt. Wat? Nee, ik zit bij jou. Dit is van de hand. Ja, nee, ik zit hier te bewegen naar jou. Van zit je me nou?

419
01:08:08.428 --> 01:08:14.048
Zit je me nou een of andere toekomstscenario of o nee, dit is, dit is er nu. Ja. In ieder geval in de SDK werkt het al.

420
01:08:14.228 --> 01:08:25.788
[klikt tong] Uhm, en, uh, stel nou dat je dus als, als een apparaat op je gezicht zit, in dit geval is een computer op je gezicht die de hele tijd je gezichtsemoties aan het doorgeven is.

421
01:08:25.808 --> 01:08:32.308
Dat moet hij doen om een technische werking van het apparaat te kunnen doen, namelijk als je naar een icoontje kijkt, dan moet dat icoontje wel aangaan, want anders dan werkt het niet.

422
01:08:32.788 --> 01:08:35.228
Maar hij is dus ook de hele tijd je gezicht aan het analyseren.

423
01:08:35.288 --> 01:08:47.648
En ik zag dus iemand op Twitter zeggen, uh, iemand die aan de vroege versie van dat ding heeft gewerkt: het is een vorm van gedachtelezen, want met je ogen beweeg je eigenlijk voordat je zelf doorhebt dat je over iets aan het nadenken bent.

424
01:08:47.708 --> 01:08:59.248
Je ogen zijn eigenlijk de eerste, uh, hoe zeg je dat? Weer, ja, de eerste weergave van je gedachten. Snap je wat ik zeg? Nee, sorry, ik zit helemaal weg te viben. Ik hoor helemaal wat je zegt.

425
01:08:59.288 --> 01:09:05.188
Dus het is een soort van proxy voor gedachtelezen. De beweging van je ogen. Wat je in mijn gezicht ziet. Je ziet mij helemaal weg verdwijnen hier.

426
01:09:05.468 --> 01:09:15.678
Wat ik wou zeggen tegen je is, ik wil gewoon even tussendoor gezegd hebben: hoe kan het bedrijf van, uh, de maker, hoe kunnen de makers van screen time, ja, hoe kunnen zij dit doen? Dat wil ik gewoon even gezegd hebben.

427
01:09:15.748 --> 01:09:22.128
Ja, de hypocrisie is ongelooflijk. Het is heel raar. Ze hadden in dezelfde keynote om toch nog even te giechen hierover.

428
01:09:22.488 --> 01:09:31.148
In dezelfde keynote waar ze eerst aan het praten waren dat ze een tool hadden gemaakt voor kinderen, dat de iPad niet te dicht op hun hoofd staat omdat het niet goed is dat schermen te dicht bij je ogen staan.

429
01:09:31.328 --> 01:09:40.088
[lacht] En een half uur later zijn ze aan het praten over hoe ze twee schermen op een centimeter van je ogen verkopen. Nu, nu goedkopere chocola van Tony's Chocolonely.

430
01:09:40.228 --> 01:09:49.868
Maar, maar stel je dus voor dat je gezichtsuitdrukkingen en dus hartslag, uhm, kan gaan gebruiken voor, uh, reclame. Om je stemming te peilen.

431
01:09:49.988 --> 01:09:57.008
Om te bedenken wanneer je kwetsbaar bent en wanneer de kans het grootst dat je bezwijkt, uh, voor, uh, voor impulsieve aankopen.

432
01:09:57.488 --> 01:10:10.228
Nu zal Apple zeggen: die data die je genereert met je gezicht, die is niet beschikbaar voor adverteerders. Nou oké, dan wachten we, dan wachten we dan eventjes op wanneer dat, wanneer dat gaat gebeuren.

433
01:10:10.648 --> 01:10:20.488
Want ik denk dat mensen dit zelf willen. Dat het probleem is met al deze dingen dat in de kern mensen dit willen. Hier zitten we dus heel erg op. Oké, ja, dit is verschil van inzicht tussen ons twee.

434
01:10:20.718 --> 01:10:27.808
Nou en ik zou daar even bij zeggen: dus, uh, er is een verschil tussen wat we willen en wat we nodig hebben als mens. Ja.

435
01:10:27.848 --> 01:10:33.728
Da-en dat, ik denk dat het continue verhaal tussen ons twee gaat zijn dat ik hem, dat ik beter moet.

436
01:10:34.208 --> 01:10:41.228
Of ja, dat het goed zou zijn als ik beter kan uitleggen waarom ik denk dat mensen bepaalde dingen nodig hebben en dat ik dat misschien ook iets meer kan onderbouwen.

437
01:10:41.258 --> 01:10:44.678
Want het zit bij mij nu heel erg op onderbuik en daar kunnen we gewoon niet zo veel mee.

438
01:10:44.728 --> 01:10:54.348
Ik denk niet dat we het daar over eens gaan worden dat we, dat we, dat het nodig is dat je f-fysiek contact hebt wat niet door een privaat institutie geintermedieerd wordt. Nee, maar je hebt natuurlijk de nodige.

439
01:10:54.357 --> 01:11:03.728
Ik denk dat we daar wel over eens zijn, of niet? Nee, maar ik bedoel, ik, de, de vraag is waar ons, waar een deel van ons meningsverschil zit. Niet zozeer denk op, op bepaalde waarden, want. Nee, denk ik ook niet.

440
01:11:03.908 --> 01:11:09.788
Ik denk dat er een soort v-, uhm, ononderbouwd vertrouwen bij mij is.

441
01:11:10.188 --> 01:11:23.548
Een ononderbouwd vertrouwen in de mensheid in de algemene zin dat wij met elkaar aan remmen kunnen trekken en dat wij met elkaar kunnen zeggen: hier en niet verder. Terwijl jij terecht zegt: Wietse, ik weet het niet.

442
01:11:23.728 --> 01:11:39.728
Maar willen trekken is de vraag. Willen wij dat? Jij denkt dat. Ik denk, ja, dat is het mooie. Ik denk dat we, dat er een, uh, dat er. Ja wacht, ik heb, ik maak het even concreet. Gisteravond, uh, Nachtdieren.

443
01:11:39.788 --> 01:11:47.788
Raven is bij een jongen die. NPO3-programma waar jij naar hebt gekeken. Daar heb ik naar gekeken. Zeg ik even voor de jonge luisteraar. [lacht] Fantastisch leuk programma.

444
01:11:48.288 --> 01:12:01.608
En, uhm, het ging erom, deze jongen die, uh, was allemaal motors aan het repareren in zijn eigen, uh, workshop. Vertelde een heel verhaal over, uh, middelenmisbruik waarin hij best wel aan, uh, lage wal geraakt was.

445
01:12:02.108 --> 01:12:05.158
En de vraag was eigenlijk: joh, waarom ben je daar weer uitgekomen?

446
01:12:05.248 --> 01:12:11.288
En dat hij op een gegeven moment zei: nou, ik zat zo laag dat ik op een gegeven moment naar mijn eigen leven keek en dacht: ja, wat is dit eigenlijk nog?

447
01:12:11.788 --> 01:12:16.128
En toen waren er ook nog eens allemaal mensen om me heen die zeiden: jij bent echt iemand die daar nooit meer uit gaat komen.

448
01:12:16.248 --> 01:12:26.228
Waardoor hij zei: toen ik dat hoorde, dacht ik: ik ga eruit komen, want ik ga het jullie laten zien. Best wel interessante reverse psychology. En die jongen heeft zichzelf opgewerkt uit dat dal. Niet iedereen lukt dat.

449
01:12:26.468 --> 01:12:37.863
Legio verhalen van mensen die rockbottom blijven en daar ook niet meer uitkomen. Maar er is dus eenVertrouwen bij mij dat het mogelijk is voor mensen. Niet alleen individuen, maar hele groepen om als ze rockbottom gaan.

450
01:12:38.284 --> 01:12:47.143
Concreet voorbeeld waren in Rotterdam een tijd jaren geleden waren de Netflix binge nights. Dat was door een kunstenaar georganiseerd die zei Kom de hele nacht hier. Niet slapen, niet eten, niet drinken.

451
01:12:47.184 --> 01:12:58.304
We gaan net zo lang kijken tot we gek worden van Netflix. Want hij zei Mijn theorie is we moeten rockbottom gaan om wakker te worden. Ik denk dat ik dit van hem gestolen heb. Ja, ja, en ik heb een overdosis die je zo.

452
01:12:58.464 --> 01:13:07.804
Hij zei Laten we meteen full aan gaan. Kom op, we gaan er gewoon met z'n allen zitten en niet meer naar de wc. En volgens mij moeten we er even helemaal in om omhoog te springen. Weer met elkaar ja.

453
01:13:07.844 --> 01:13:14.864
Dus daarin moedig ik bijna de Vision Pro aan dat ik zeg plak maar op je gezicht, je iPad, let's a. We hebben het even nodig als maatschappij. We moeten hier even doorheen.

454
01:13:15.184 --> 01:13:22.284
Maar dan probeer ik hem dus positief te maken bij mezelf. Maar er zit dus een vertrouwen in dat er een substantiële groep mensen is die terug bounce.

455
01:13:22.344 --> 01:13:31.984
Ja, die zegt dat je echt die die Vision Pro afgooit en zegt ja, nou wil ik nou weg ermee. Ja, dat ja, dat is interessant, toch? Ik denk dat dit inderdaad ons verschil van inzicht is.

456
01:13:32.864 --> 01:13:37.184
Wat me dus ook grappig lijkt ik kan eindeloos hierover doorgaan. Je moet maar zeggen als je er klaar mee bent.

457
01:13:37.224 --> 01:13:49.974
Maar wat me dus eigenlijk wat ik ook heel leuk vind, is dat wat adverteerders natuurlijk altijd willen is de cultuur beïnvloeden. Want het is fijn om reclames te maken waarin je zegt koop dit nu. Dit zijn de argumenten.

458
01:13:50.514 --> 01:14:08.204
Maar het is natuurlijk fijner als het een hype wordt. Wat is een hype of een trend? Dat is dat i. Het is een soort surround sound effect dat iedereen het over heeft in jouw wereldje en dat het ook van dus het is.

459
01:14:08.244 --> 01:14:14.124
Het is zo krachtig omdat andere mensen het de hele tijd er over hebben en je hebt het gevoel dat je er iets mee moet omdat het zo alom vertegenwoordigd is.

460
01:14:14.144 --> 01:14:24.524
Nou, dat is natuurlijk het mooiste wat er kan gebeuren als jij een merk bent. En dit gebeurt aan de lopende band. Soms dan is dat omdat ze geluk hebben en soms is het omdat het zo geëngineerd is.

461
01:14:25.244 --> 01:14:30.904
En ik denk een voorbeeld van geëngineerd is die Lou dat Je ziet het ook Ogilvy gewoon doen.

462
01:14:31.024 --> 01:14:42.123
Die dat ze de cover van Vogue doen is omdat zij op reclame congressen willen vertellen kijk eens wat voor gaaf reclamebureau wij zijn, want we hebben een virtueel ding op de cover van Vogue gekregen.

463
01:14:42.284 --> 01:14:52.944
De gimmick waarde is enorm en het is reclame voor Ogilvy in plaats is mijn stelling en niet voor Lou. Ik snap hem zelfs wel een beetje vanuit Vogue. Ja, iedereen heeft hier wat aan. Dat is ook wel waar.

464
01:14:53.084 --> 01:14:57.664
Nou, dat zij denken dat vinden wij ook wel top om aan mee te doen. Maar het is wel. Het bestaat nu bij gratie van de gimmick.

465
01:14:57.684 --> 01:15:11.004
Want als jij nu het tweede bedrijf bent van Brazilië en je wil ook een cover van de Vogue, gaat niet gebeuren. Dus de gimmick is nu de waarde en dat is hetzelfde sentiment als met een trend. Nou ja, goed, een dus een.

466
01:15:11.024 --> 01:15:22.504
Een reclamebureau kan dit orkestreren. Die kan zorgen dat heel veel influencers die in dezelfde doelgroep zitten dat die over hetzelfde ding gaan praten. Dat kan. En dan kun je dus een trend genereren.

467
01:15:22.564 --> 01:15:32.404
Hoop of je kan altijd hopen. Of kans creëren, over. Iedereen heeft het er over. En het kan ook daadwerkelijk zo zijn omdat het allemaal gekocht is. En dat kunnen, dat kunnen merken nu al met influencer campagnes.

468
01:15:32.464 --> 01:15:40.684
Omdat ze dan influencers inkopen. Die gaan allemaal over dezelfde maaltijdbox praten waardoor jij het idee hebt dat ze er allemaal over. Dat dat gewoon iedereen heeft het er over. Dat gevoel moet je hebben.

469
01:15:41.724 --> 01:15:55.284
En één apparaat waarmee dat het geval is in mijn wereld op dit moment is de Ninja Creamy. Dit zegt jou niets nu. De Ninja Creamy is een apparaat waarbij je fruit of een ander goedje in een machine kan doen.

470
01:15:55.884 --> 01:16:06.884
Dat ding maakt er ijs van. IJs van alles. Dus als je zin hebt, noem eens iets. Jij hebt die niet hier nu. Die komt vandaag binnen bietje en ik kijk hier al zo lang naar uit. Maar noem mij iets van fruit.

471
01:16:08.114 --> 01:16:18.284
Wat vind jij een lekkere vrucht? Ja, peren. Want peren? Want lekker. Jij hakt die peren op. Jij doet die 00.00u in die in die vriezer en dat ding maakt daar peren ijs van.

472
01:16:18.304 --> 01:16:27.144
Zonder suiker, zonder allerlei gekke toegevoegde middelen. Gewoon peren ijs uit jouw eigen machine. Nou TikTok, mijn TikTok feed staat hier vol mee.

473
01:16:27.784 --> 01:16:37.084
Allemaal mensen die dat ding thuis krijgen en dan gaan laten zien wat ze met dat ding maken en heel blij zijn. Maar jouw Spidey sens tingelt bij een campagne. Jij denkt het is wel heel toevallig.

474
01:16:37.204 --> 01:16:47.964
Ik vind het wel allemaal. Ik denk niet dat dit een campagne is, maar ik het. Dit geeft mij wel een beeld in de toekomst, want dit zijn allemaal mensen die ik niet ken voor het grootste deel.

475
01:16:48.043 --> 01:16:56.184
Er zitten ook bekende mensen bij die dan zo'n ding kopen zoals ik dat dan nu doe. In feite op dit moment in de tijd. Ik zie mezelf zitten als een derde persoon. Hij is het aan het doen.

476
01:16:56.444 --> 01:17:05.664
Hij praat erover op meta niveau, dus daarom is het niet echt. Maar het is. Het is wel degelijk aan de hand. En even hoe zeg je dat? Disclaimer dit is niet onderdeel van de campagne.

477
01:17:06.004 --> 01:17:17.984
Als dit onderdeel van de campagne zou zijn, dan is dus deze manier van erover praten op meta niveau. Ja, ja, ja is dan waarom het authentiek is en dan heb je het kapitalisme. Anyway, mijn TikTok feed staat er vol mee.

478
01:17:18.264 --> 01:17:27.344
En wat als je geautomatiseerd influencers campagnes zou kunnen kopen om die machine aan te bevelen en dus ook TikTok kan betalen om dat in het algoritme omhoog te duwen.

479
01:17:27.364 --> 01:17:39.104
En dan niet een reclame maken zoals dat nu gebeurt, die voor iedereen hetzelfde is in TikTok, maar met influencers of weet ik veel mensen die er uitzien zoals ik. Ik hoef ze niet eens te kennen.

480
01:17:39.424 --> 01:17:53.044
Het kan dit, dit, dit, dat. Ik heb ooit een boek gelezen. Het heette The Daily You. In 2013 volgens mij misschien nog wel langer geleden. Een boek dat heel erg ging over wat als reclame straks gepersonaliseerd is.

481
01:17:53.064 --> 01:18:02.364
Dit boek heeft eigenlijk gewoon waar we waar we gaan komen aardig. Best wel sciencefiction films waarin dit soort dingen zitten. Met reclameborden die spontaan veranderen op straat als jij er langs liep.

482
01:18:02.404 --> 01:18:12.364
En nou, dat soort dingen. Ja, en een van die dingen was wat nou als we straks allemaal settopboxen hebben? Dat vind ik altijd zo mooi aan mensen die uit de verleden toekomst voorspellen dat het zo gaat.

483
01:18:13.004 --> 01:18:25.184
Stel, we hebben allemaal settopbox bij onze tv. Ervan uitgaande dat we tv kijken. Xperia box. Ja, een Xperia box bij onze tv. Xperia negen of tien. Waar zitten we inmiddels? Volgens mij negen. Ja, V9 is het volgens mij.

484
01:18:25.224 --> 01:18:39.708
Ik hecht eraan om dit te weten. Hoe dan ook, we hebben het nu over Xperia veertien. Dat je daar danDe je stelde een reclame voor een auto dat dat ding weet uit zijn data broker. Dit is Wietse.

485
01:18:39.948 --> 01:18:50.728
Wietse heeft een boven modaal inkomen, daar hoort. De reclame is van Kia, dus daar hoort dit segment auto's bij van Kia, de middelbare midden hoog midden segment auto.

486
01:18:51.528 --> 01:19:02.827
Hij woont in de stad, dus laten we de driver ook laten rondrijden in de stad en niet op het platteland voor andere mensen. Dus laten we de driver een beetje uit laten zien zoals hij. Of iemand die die graag wil zijn.

487
01:19:03.068 --> 01:19:09.328
Beter nog op aspirationeel niveau. De muziek moet ongeveer die uit de speakers komt van de auto moet ongeveer de muzieksmaak zijn.

488
01:19:09.368 --> 01:19:21.488
Zelfs het weer kan aangepast zijn aan het weer of het moment van de dag, zodat je het gevoel hebt dat ben ik in een auto die ik zou willen hebben, die ik net niet kan betalen, maar toch ga kopen omdat deze reclame daar toe geprimed heeft.

489
01:19:21.848 --> 01:19:30.868
Nou, stel nou dat je. Dat was het beeld wat in die in dat boek geschetst werd. Stel nou je zou dat kunnen doen op grote schaal om om ijsmachines te kopen.

490
01:19:31.828 --> 01:19:40.788
Dat het feit dat ik getriggerd word door een ijsmachine zegt iets over mij en dit is voor iedereen anders. Want voor jou is voor mij is een ijsmachine, maar voor jou is het iets totaal anders. Maar deze.

491
01:19:40.828 --> 01:19:51.808
Ik heb dat ding dus gekocht en het is overal uitverkocht, dus het werkt. En op Marktplaats gaan ze voor belachelijke tarieven. Dit is gewoon aan de hand. Dit is gewoon het equivalent van een TikTok rij hier in Amsterdam.

492
01:19:51.848 --> 01:20:01.528
Dat mensen voor de papa van de rij staan. Een commerciële flashmob? Ja, maar dan helemaal aan mij aangepast. En ehm, ja, Jezus. Maar ik zit nu te denken dat.

493
01:20:01.568 --> 01:20:15.788
Dat is voor mij het ja, de combinatie van al deze dingen bij elkaar, dat is de de dat. Maar hoe denk je dan over ehm, ik zeg het even heel plat Hollands banner blindheid dus. Of banner blindness.

494
01:20:15.848 --> 01:20:26.668
Ja, maar de grap is dit zijn geen reclames waar ik naar zit te kijken op TikTok. Het is gewoon content. Nee, maar ik denk dat dat geloof ik maar. Dat geloof ik. Maar ik kan me voorstellen dat ehm.

495
01:20:27.608 --> 01:20:30.668
Net als dat je op een gegeven moment dus banners op websites niet meer ziet omdat je ze gewend bent.

496
01:20:31.028 --> 01:20:41.988
Dat je misschien intuïtief gaat voelen van ja, ik zie hier wel mijn favoriete influencer iets aankondigen, maar ik heb inmiddels door dat dat heel erg persoonlijk is.

497
01:20:42.028 --> 01:20:53.348
Dus ik geloof het niet meer dat er een soort ehm, ja, hoe zeg je dat crisis ontstaat bij iedereen? Niet een soort credibility crisis. Dus dat dat mensen eigenlijk dat.

498
01:20:53.368 --> 01:21:03.708
Dus dat de hele reclame-industrie in paniek raakt omdat ze voelen we zijn zo ver gegaan. Nee dus. Ja, ik nodig bijna uit. Ga lekker ver, want dan maak je. Dan maak je het misschien wel een beetje kapot voor jezelf.

499
01:21:04.608 --> 01:21:12.408
Dat dat, dat er een soort argwaan, subtiele argwaan ontstaat bij de ontvangers van deze boodschappen.

500
01:21:12.428 --> 01:21:23.468
Dat ze denken ja, want er gaat natuurlijk een kik litje, dit gaat niet perfect zijn, dus er gaat een soort van ding gebroken worden. Poep ijs. Ja, er gaat iets mis. Er gaat iets mis. Kots ijs. Ja.

501
01:21:23.608 --> 01:21:34.788
Of er komt door een of andere foute caching regel in de in de load balancer krijg ik ineens dat van mijn buurman. Dan denk ik is dat nou ja, is dat nou André van Duin die ineens een Kia aan me aanpraat?

502
01:21:34.848 --> 01:21:43.708
En dan ja, maar zitten jullie dan allemaal eigenlijk? En dan een soort van word ik wakker of zo? Dit is heel hoopvol, hè, Voor mij heel naïef. Ja, ik ben. Ik vind het mooi hoe jij op zoek bent naar hoopvol.

503
01:21:43.768 --> 01:21:52.248
Ja, ik zit echt te zoeken. Want jij zoekt. Ik hoop. Ik hoop toch wel dat er een soort. Want ik vind dat kat en muis spelletje leuk. Laat ik het dan zo zeggen. Dus dat je de. Het is hetzelfde als.

504
01:21:52.418 --> 01:22:02.888
Dit zie je ook constant in, in, in mode, maar bijvoorbeeld ook in reclame-uitingen van we moeten even met zijn allen naar een andere kleuren set toe, want alles is in de hele wereld blauw en roze.

505
01:22:02.928 --> 01:22:11.088
Iemand moet even met felgeel er doorheen, want dan valt je reclameboodschap weer op. En op een gegeven moment gaat iedereen geel en dan shit, dan rennen ze iedere keer naar een andere kleur toe.

506
01:22:11.128 --> 01:22:24.048
En datzelfde fenomeen heb je volgens mij met het omarmen van dit soort nieuwe gepersonaliseerde technieken. En ik vraag me af of diezelfde dynamiek daar dan mogelijk ook gaat plaatsvinden.

507
01:22:24.088 --> 01:22:38.928
Dus dat er op een gegeven moment een soort moeheid, blindheid, argwaan ontstaat. Nou ja, ik zie dit op het niveau van de gimmick. Een Trump pro-Trump aanhanger heeft de Instagram feed van Micaela gehackt. Dat is het.

508
01:22:38.968 --> 01:22:51.967
Dat is dan een gimmick van robots die met elkaar ruzie maken. Op dat niveau denk ik dat er de hele tijd van kleur veranderd gaat worden. Dus dit zullen dan. Dit is dan een soort van hack om aandacht te krijgen.

509
01:22:52.348 --> 01:22:58.328
Je gaat die hack niet twintig keer zien dat iedereen dit gaat doen. Dan is het uitgewerkt ja. Dus ik denk op dat niveau.

510
01:22:58.408 --> 01:23:10.988
Maar als jij het hebt over op het niveau van gepersonaliseerde influencers, gaan we daar een andere kleur krijgen. Dat het niet meer. Dat we opeens opeens met z'n allen echte influencers willen zien omdat dat de.

511
01:23:11.348 --> 01:23:20.208
Dat zou dan de kleur verandering zijn. Soort van geel. Daar geloof ik geen reet van. Ik denk niet dat dat abstractieniveau gaat gebeuren. Ik denk ik denk dan dat dat. Daar heb je denk ik wel gelijk in.

512
01:23:20.788 --> 01:23:31.668
Ik denk wel dat het zo zou kunnen zijn dat dat dus die dat vertrouwen erodeert. Heel, heel subtiel. En pak dan, want dit nu over reclames van Cora van Mora en andere onzin waarvan je nog kan zeggen waar gaat het over?

513
01:23:32.248 --> 01:23:47.328
Maar denk dan aan reclame voor politiek. Ja, maar dan. Dan heb je dan. Dan steek je even een lont ergens in. Ja, want als je, als je AI gaat gebruiken om politiek zeer gericht reclames te maken en die gebruikt om.

514
01:23:47.728 --> 01:23:55.508
We weten al dat er in Amerika reclames zijn gedaan om voter suppression te doen, dus mensen te ontmoedigen om op te komen dagen.

515
01:23:55.548 --> 01:24:06.148
En stel je gaat campagnes maken die de verdeeldheid benutten, wat denk ik heel juist met politieke advertenties dat dat heel goed kan om angst te vergroten of wantrouwen te verkopen, vijandigheid te vergroten.

516
01:24:06.908 --> 01:24:21.828
Dat dat dat zijn, dat zijn heel krachtige onderliggende emoties. En dit is wat ik bedoel met technologie baant de weg voor de soort van de lowest common denominator. Dit zijn zeer basale angsten in ons allemaal. En die.

517
01:24:23.088 --> 01:24:38.120
Weet je, ik denk dat als we het hebben over boerenprotesten of klimaatverandering, of over alle, alle grote issues waarin mensen zich nu druk maken over de stand van de wereld.Komen allemaal voort uit diepe angst die mensen in zichzelf hebben.

518
01:24:38.180 --> 01:24:47.980
Die gaan niet over stikstof, die gaan over iets onderliggend. En als je maar goed op die angst appelleert, dan kun je heel veel aandacht krijgen van mensen daarmee. Dit is het succes van Thierry Baudet,

519
01:24:48.920 --> 01:25:00.340
maar ook van of ook van de Partij voor de Dieren. Ja. Als dat geavanceerder wordt en laten we wel wezen, daar staan we echt nog in Nederland helemaal, helemaal aan het begin.

520
01:25:00.380 --> 01:25:08.980
Want wat campagnes nu doen zijn domme filmpjes maken en dan hopen dat ze op YouTube viral gaan. Het is nog steeds alsof ze in 2002 leven bij politieke partijen.

521
01:25:09.020 --> 01:25:18.840
Of ze ze geven een paar ton uit aan Google ad campagnes met heel stomme banners. En de VVD? Die doet dan nog het meest zijn best om een beetje sensationele dingen erin te zetten.

522
01:25:19.280 --> 01:25:29.080
Gewoon als in prikkelende dingen, maar voor de rest het allemaal heel saai. Het is de slogan van de partij in het gezicht van en dan? Dan stem nu of zo. Dat is ongeveer hoe politieke campagnes nu werken.

523
01:25:29.420 --> 01:25:44.620
Maar als je al deze shit die we in de afgelopen uur hebben besproken toepast op politieke campagnes en je gaat proberen om mensen te ontmoedigen om te gaan stemmen bijvoorbeeld, of actief proberen verdeling te zaaien omdat je daar baat bij hebt, zoals dat voor de heer Baudet het geval zou zijn.

524
01:25:46.180 --> 01:25:55.260
Ja. Ja, nee, dat ja, dat geeft me. Democratiseer die technologie maar eens. Ja. Ja, maak hier maar eens wat moois van. Nou, ik denk.

525
01:25:55.280 --> 01:26:04.660
En ik heb bijna geen zin om er over door te denken omdat ik gewoon niet wil dat dit dat dit gaat gebeuren. Weet je wat jij? Wat jij hebt met ik gooi mijn TikTok telefoon mijn telefoon weg met TikTok denk ik. Cute.

526
01:26:05.000 --> 01:26:19.300
Leuk omdat jij Cora van Mora niet aankan, maar ik denk dit hier. Hier zit het probleem. Mijn god, wat een shitshow gaat dat worden. En nu denken we nu hebben we het nog over die die virtuele karakters Lou en Michaela.

527
01:26:19.660 --> 01:26:30.780
Die zijn allemaal pro LGBT waarden, dus ik vind dat opvallend. Dit is gewoon. Ze proberen een jonge demographic aan te spreken. Ze denken oké Gen Z'ers, waar, waar, hoe? Hoe ben ik related voor een Gen Z'er?

528
01:26:30.980 --> 01:26:43.180
Nou, ik moet praten over LGBT rechten. Ja, heel opportunistisch. Ja, het is gewoon commercie, commercie. En dat werkt voor een bepaald type jongeren, namelijk progressieve jongeren.

529
01:26:43.540 --> 01:26:54.260
En wat we eerder hebben gezien met de opkomst van technologieën was dat we, zoals de opkomst van Facebook en dat we met z'n allen zeiden social media, ze hebben Obama social. Door Facebook is Obama gekozen.

530
01:26:54.300 --> 01:26:57.580
De opkomst van sociale media is de redding voor progressieve waarden.

531
01:26:58.280 --> 01:27:12.680
Nou, tot het moment dat er 11111 Breitbart of een Steve Bannon komt die begrijpt dat je diezelfde principes en technologieën kan inzetten, ook om abortus en andere juist weer de rechtswaarde.

532
01:27:12.900 --> 01:27:22.280
Weaponizing van diezelfde technologie. En en nu hebben we het over al deze dingen. Nou is leuk linkse waarden en kunnen we er nog om lachen. Maar stel je voor dat dit.

533
01:27:22.320 --> 01:27:27.540
Ik wil niet zeggen met rechtse waarden kan niet, zo bedoel ik het niet, maar dit zijn nog redelijk mainstream waarden zeg maar.

534
01:27:28.000 --> 01:27:39.580
Als je dit naar extremen toe kent aan de linkerkant klimaat terrorisme of aan de rechterkant, nou wat we nog meer doen een soort van de hele wereld order bestaat uit een reeks van pedofielen.

535
01:27:39.640 --> 01:27:54.440
Als je op de twee soort van extremen wil pakken. Als ik nou tegen jou zeg joh, er zit ik drink hier een glas water en ik neem het mee naar huis. Ik laat dat testen. Zit lood in want je hebt oude loodleidingen hier.

536
01:27:54.620 --> 01:28:03.880
Het zou zomaar kunnen. Ja, ik sluit het niet uit. In deze wijk niet. Nou dan. Lood is niet zo goed voor je, dus als ik dat dan aan jou zou melden dan zou je waarschijnlijk zelf nog even een test laten doen of zo.

537
01:28:03.900 --> 01:28:11.820
En dan zeg je inderdaad Wietze dank je wel voor de tip. Ik ga dat water eerst schoonmaken of ik moet even die leidingen laten vervangen of ik er gaat iets gebeuren. Ik denk dat jij dan gaat handelen.

538
01:28:11.860 --> 01:28:23.480
Je gaat het niet meer drinken of je gaat het laten aanpassen denk ik. Vul ik voor jou in. Maar als ik dan zeg tegen jou er zit lood in je tiktok, er zit lood in je tiktok, mentale lood, psychologisch lood.

539
01:28:23.490 --> 01:28:35.640
Het was een tijdje verboden om op Facebook te zeggen dat vaccins. Wat was het nou? Ik weet niet meer precies wat het was, maar het was verboden om covid misinformatie desinformatie te verspreiden. O nee, het was.

540
01:28:36.400 --> 01:28:45.040
Dit bedoel ik eigenlijk. Het was verboden om te zeggen dat de verkiezingen in Amerika geriged waren de vorige keer. Ja, mag nu alle socialmediaplatformen zeggen. Mag vanaf nu weer. Ja nee, maar dit.

541
01:28:45.300 --> 01:28:59.120
Is lood in het water vriend. Nou en? Die regels zijn zo dat het lood wordt toegestaan. Nou maar ik, ik. Ik ben dus veel meer van hoe. Hoe kan het zo zijn? Ik denk dat jou. Ik moet het niet voor je invullen.

542
01:28:59.150 --> 01:29:12.400
Ik moet het vragen. De. Het lijkt erop in mijn omgeving als ik met mensen praat over de fysieke ruimte. En ik geef bijvoorbeeld aan joh, het is goed om de CO2 waarde in je woning te meten.

543
01:29:12.760 --> 01:29:21.700
Ik weet niet of jij dat doet bijvoorbeeld. Ik doe dat. Ja, ja. Nou, ik doe dat zelf ook. Dat is namelijk vrij eenvoudig. Je hebt een wat gunstigere waarde en wat hogere waarde. Zit nu ook bij basisscholen allemaal.

544
01:29:21.760 --> 01:29:31.520
Komt ook een beetje uit dat covid verhaal, want dat is een beetje gelieerd aan elkaar heb ik begrepen. Want ongezonde lucht kan je dan eigenlijk de makkelijkste indicator is eigenlijk de CO2 waarde. Je moet ventileren.

545
01:29:31.780 --> 01:29:40.560
Nou, ik heb dat nu thuis, ik meet dat een beetje. En dan. Nou, ik ben inmiddels zover dat er een ventilator automatisch aangaat. Helemaal leuk met Domotica dat hij dan automatisch gaat luchten.

546
01:29:40.940 --> 01:29:48.440
Ik zou het het coolst vinden als mijn ramen automatisch open en dicht gaan, zoals bij bedrijven. Heel benieuwd hoe deze metafoor heengaat. Nou ik iedere keer als ik eigenlijk.

547
01:29:48.570 --> 01:29:57.980
Ja, misschien is het mijn bubbel, maar als ik dan mensen thuis heb en dan gaat dat ventilatortje aan of er begint ineens iets te branden, dan vragen ze wat ben je aan het doen? Zit nou weer een van jouw gekke dingen.

548
01:29:58.400 --> 01:30:04.140
Zeg nou ik heb CO2 meter want ja CO2 waarde moet je een beetje. En dan eigenlijk bijna iedereen waar ik het aan vertel.

549
01:30:04.320 --> 01:30:12.200
Als ze het al niet hebben dan mailen ze mij of dan krijg ik een berichtje een week later met Joh, ik heb even gekeken, maar waar kan ik dat? Ik heb er ook een gekocht. Ja, en dan kan je.

550
01:30:12.220 --> 01:30:21.460
Dan kan je zeggen ja Wietse, dat is jouw hyper quantified self health bubbel waar je in leeft. Maar dat zijn hele. Nou ja, goed, dat zijn wel verschillende mensen, laat ik het dan zo zeggen.

551
01:30:21.840 --> 01:30:32.240
Dus er is ergens, ergens een mogelijkheid om mensen te wijzen op de mogelijk ongezonde effecten van hun leefomgeving. En dat dat dan iets gaat gebeuren, dat zie ik om me heen.

552
01:30:32.360 --> 01:30:42.480
Dat doe ik niet alleen, maar we handelen dan met elkaar. En nu heb ik het niet over de fysieke leefomgeving, maar je mentale leefomgeving. Namelijk waar je die TikTok allemaal in stopt de hele tijd.

553
01:30:42.880 --> 01:30:54.360
En dat ik eigenlijk nu ook aan de luisteraar zegt Er zit lood in je water. Waarom ook tegen jou? Gooi die app er nou gewoon af en dan Maar dan zeg jij misschien tegen mij Dat vul ik dan toch even voor je in.

554
01:30:54.860 --> 01:31:05.848
WietzeHet jouw hele metafoor gaat mank, want dat TikTok heeft ook hele mooie dingen voor mij. Is dat het dan? Ja, maar define lood.

555
01:31:06.848 --> 01:31:23.948
Want ik denk dat voor sommige mensen is lood uh het feit dat er in Nederland een geheime schaduwregering is die als doelstelling heeft om de Bilderberg doelstellingen of weet ik veel wat voor ding om om die te promoten.

556
01:31:24.328 --> 01:31:33.628
En dat lood ben ik aan het bestrijden. Dus ja, op het moment dat je geen gedeelde werkelijkheid hebt, dan doet het er wel toe wat je definitie van lood is.

557
01:31:34.248 --> 01:31:37.407
Ja, ja, het heeft denk ik te maken met en daar gaat misschien ook die metafoor.

558
01:31:37.657 --> 01:31:50.548
Ik denk toch niet dat die mensen dat die mensen die de hele tijd over een complot aan het praten zijn, dat die denken dat ze daarmee zichzelf aan het vermaken zijn of zo. Maar is i kan TikTok groente voor de geest zijn?

559
01:31:51.028 --> 01:32:04.468
Kan TikTok groente zijn? Ja. Voedzaam? Tuurlijk kan dat. Dat was in China zelf doen. Dat het daar voedzamer is bedoel. Ja, daar is het voedzamer. Ja, natuurlijk. En uhm.

560
01:32:04.588 --> 01:32:13.248
Als ik tegen jou als ik jou tegen jou zeg Alexander, jij neemt een bepaald uh uh sport shake je uh van een merk en joh, daar zit een stofje in.

561
01:32:13.648 --> 01:32:20.608
Die verhalen hoor je vaak genoeg om je heen, maar dat stofje is dan misschien echt niet zo goed en jij zoekt het op en je denkt potverdikkie, weet thanks man, ik pak even een ander Shaky.

562
01:32:20.688 --> 01:32:29.708
Dat gesprek zouden wij kunnen hebben. Dat is nu niet zo met je Shaky, maar bij wijze van. Ik weet er ook niet zoveel van. En nu nu zeg je hetzelfde. Maar ik zeg ja, maar ik zeg het nu ook tegen jou voor TikTok.

563
01:32:29.738 --> 01:32:38.148
Maar er zit toch een gedeelde. Er zit een aanname in over een gedeelde waarheid die wij hebben. Een, een waarheid die wij delen, namelijk dit stofje is slecht voor me.

564
01:32:38.558 --> 01:32:47.348
Als je dat fundamenteel niet gelooft omdat jij de hele tijd en maar niet gelooft dat het juist goed voor je is en dat blijft horen door alle informatie die je tot je neemt. Ja.

565
01:32:47.968 --> 01:33:04.848
Ja, en misschien is omdat het In dat geval kan ik die mentale voeding en wat je tot je neemt, wat je eet met je ogen kan ik misschien niet zo makkelijk op hetzelfde gooien als het eten, want ik ben echt bij jou op zoek van gooi die app er nou af, want ik waarschuw je eigenlijk als vriend dat ik zeg volgens mij is het niet goed voor je.

566
01:33:05.087 --> 01:33:17.298
Dat. En dan zeg ik zet die app er nou op, want we worden bestuurd door, door een geheime overheid. Die app is juist goed. Ja, open je ogen. Ja. Nou on that note. Vind je dat we dit onderwerp adequaat hebben behandeld?

567
01:33:17.528 --> 01:33:28.288
Ja. [lachen] Ik heb dus een heel gesprek gevoerd met ChatGPT over dystopische gevolgen van, van AI in, in, in reclame. Ik heb hem allemaal dystopische scenario's laten schrijven.

568
01:33:28.668 --> 01:33:38.688
Ik heb nog heel veel dystopische scenario's niet behandeld, maar dat kleurt wel een beetje de ja, de toon, de toon van waar ik het allemaal over, over, over heb de hele tijd. Zijn nog.

569
01:33:38.928 --> 01:33:45.828
Zijn nog dingen die we gemist hebben? Nou, er gaat nog wel een hoop terugkomen in vervolg gesprekken denk ik. Hebben we wat gemist? Er zijn weer heel veel raakvlakken.

570
01:33:45.988 --> 01:33:57.668
Wat ik wel grappig vind is volgens mij als het over content gaat om het even lekker abstract te pakken. Alles wat gemaakt wordt mag van mij ook fysiek iets, een object of daadwerkelijk inhoud,

571
01:33:58.808 --> 01:34:08.768
iets digitaals of iets fyzieks. Wij begonnen in de vorige aflevering praatten we over kunst. Dat heeft een soort in mijn wereld een hoger aanzien dan een reclamecampagne.

572
01:34:09.328 --> 01:34:18.728
Wat die reclamebedrijven natuurlijk proberen is om die reclame zo goed te maken dat het bijna kunst is, want dan gaan we het weer waarderen en kopen. Briljant. Dus het zijn een soort kunstreclames.

573
01:34:19.168 --> 01:34:27.728
Ik vind het wel boeiend hoe wij nu een beetje heen en weer bewegen. En dat dat maakt het onderwerp een beetje moeilijk te pakken, vind ik. Tussen uh een kunstenaar,

574
01:34:29.028 --> 01:34:38.928
een virtuele kunstenaar die constant Van Goghjes eruit klapt voor ons, zeg maar vi, vi, virtual Van Gogh. Uh, daar praten we dan over van joh, hoe zit het dan met werk? Hoe zit het dan met banen, et cetera.

575
01:34:39.348 --> 01:34:45.688
Dan over Harry Potter, Game of Thrones episodes en boeken die helemaal voor ons gemaakt zijn. Dan zit je een beetje in de entertainmentindustrie.

576
01:34:46.188 --> 01:34:54.838
En dan zeggen we maar goed, er zijn ook partijen die echt hun levenswerk ervan gemaakt hebben om te sturen, te manipuleren, te activeren, te, te monetizen. Dat zijn de reclameboys en -girls.

577
01:34:54.988 --> 01:35:04.328
Ik vind het een interessant spectrum van waar ik dus die kunst in ieder geval in intentie zou vatten onder groenten voor de geest. Dat is de broccoli van het maken en het doen.

578
01:35:04.848 --> 01:35:16.728
En dat we die dat ik die reclamecampagnes veel meer zet onder de frikandellen van Cora. Uh, richting het snacken zeg maar. En ik. Moeten we anders niet volgende keer bespreken hoe we deze zelfde.

579
01:35:16.738 --> 01:35:26.848
Want dit is dus AI inzetten voor kwaad. Omdat wat nu ook wat advertenties gewoon zijn. We kunnen heel lang lullen over hoe het Wereld Natuurfonds geld kan verdienen met reclame, maar het uiteindelijk gewoon evil.

580
01:35:27.108 --> 01:35:35.508
Moeten we niet het nu gaan inzetten voor iets positiefs, bijvoorbeeld onderwijs? Nou Zel, ik zit nu meteen nu je dat zegt, zit ik te denken het ware het. We gaan nu de redactie overleggen hier live met jullie volk.

581
01:35:35.708 --> 01:35:46.088
Maar je moet ons maar even een duwtje. Nou, ik zit te denken van dat, dat is denk ik uh kijk volgens mij uh, dat is het. Dat is de kritiek op de serie Black Mirror. Ja.

582
01:35:46.548 --> 01:35:55.008
Is dat het bijna makkelijk is om dystopieën te maken. Mmm. En ik denk uh heel veel sciencefiction is dus dystopisch. Het is op een bepaalde manier makkelijk.

583
01:35:55.588 --> 01:36:04.928
Het is makkelijker ook te consumeren, want het lijkt alsof wij in ieder geval met een groot deel van ons wel lekker gaan op. Angst. Uncanny, dat angstige, dat freaky zeg maar.

584
01:36:05.388 --> 01:36:18.328
En wij, jij en ik lopen het risico om hier een soort live podcast Black Podcast te maken. Een Dark Mirror, Black Mirror voor uh deze hele ding. En dat mensen dan luisteren. Dat ze iedere keer zeggen uh wat?

585
01:36:18.688 --> 01:36:29.268
Wauw, ik heb het weer geluisterd en ze lieten me weer achter met een freaky gevoel. Ja. Freaked out. Ja. Het is aan ons dan de uitdaging. Ja. Om ook wat breder te kunnen en ook onszelf uit te dagen.

586
01:36:29.528 --> 01:36:41.428
Misschien zeker mijzelf. Ja. Om te zeggen van stel het is precies dezelfde technologieën binnen TikTok met dezelfde algoritme, hetzelfde bedrijf die probeert te zorgen dat kinderen vaker een helm op doen op hun fiets.

587
01:36:41.508 --> 01:36:53.148
Mhmm. Ja, dan denk ik ja wat goed! Of een joh, zet je TikTok eens uit campagne op TikTok even helemaal meta. Dat kunnen we ook doen dus. En dan?

588
01:36:53.188 --> 01:37:06.248
Want dat zal iedere denk ik advertising agency CEO vertellen van joh, wij, wij maken narratieven. For good. Ja, en we willen mensen. We kunnen mensen overtuigen van X tot en met Y tot en met Z.

589
01:37:06.948 --> 01:37:15.228
En ja, we doen het ook voor partijen waar jij het misschien niet mee eens bent. Maar andere partijen die waar je het wel mee eens bent, hebben ook een verhaal nodig en overtuigingskracht. En dat doen wij ook.

590
01:37:15.428 --> 01:37:25.548
Oké, nou, we gaan volgende week proberen minder dystopisch te zijn. Ja. En dit voelt dan ook weer als een manier om engagement te krijgen. Ja, want als we heel erg gemêleerd [lachen] gemêleerd zijn, dan helemaal goed.

591
01:37:25.628 --> 01:37:34.548
Ja. Oh God. Anyway. Zitten wij hier eigenlijk te doen? [lachen] Dat vraag ik me sowieso iedere week af. Dank voor het luisteren. Dank voor het luisteren. Tot volgende week! Doeg!
