WEBVTT

1
00:00:00.080 --> 00:00:10.400
[alarm] Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.440 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.760 --> 00:00:39.320
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:51.040
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Koffietijd voor Mannen. De podcast waarin drie onbezonnen gasten je wekelijks een kijkje geven in hun zinderende studentenleven.

6
00:00:51.050 --> 00:01:00.540
We gaan geen onderwerp uit de weg en helpen je op het gebied van liefde. Zou je huilen tijdens de seks een, een, een afknapper vinden? Vriendschap en alle andere problemen die je tegenkomt in je studentenleven.

7
00:01:00.600 --> 00:01:14.260
Ze miste een beetje vo. [gelach] Elke maandag om 3.00 uur sharp op je favoriete podcastplatform. Ik heb met zoveel meiden getongd. Echt met vier verschillende. Ik zo bram, dat was vier keer dezelfde.

8
00:01:14.340 --> 00:01:17.640
[piep] We luisteren deze podcast op eigen risico.

9
00:01:18.740 --> 00:01:44.060
[muziek] Welkom bij Poki, een podcast over kunstmatige intelligentie waarin Alexander Klöpping, Wietse Hagen en ik, Milo Brand, je bijpraten over de wondere wereld van AI.

10
00:01:44.820 --> 00:01:51.360
Dit keer ontbreekt Wietse even, maar Alexander is terug. Hij was wasmachine spotten bij Samsung in Seoul en doet verslag.

11
00:01:52.120 --> 00:02:03.520
Verder: er is een brandbrief geschreven door een aantal werknemers en oudgedienden bij OpenAI en Google. Het gaat over veiligheid. De wereld gaat eraan en niemand doet iets. Dat een beetje.

12
00:02:03.560 --> 00:02:05.420
En voorts is er ophef in de VS.

13
00:02:05.720 --> 00:02:19.500
Journalisten schreeuwen moord en brand, want nadat ze de vorige digitaliseringsslag van de krant naar online ternauwernood hebben overleefd, nou ja, net weer eindelijk een beetje de droge kleren hebben, zou je kunnen zeggen, dreigt de volgende vloedgolf hun verdienmodel te slopen.

14
00:02:20.100 --> 00:02:32.740
Hoe gaat AI de algehele nieuwsvoorziening beïnvloeden? Ja, nou, daarvoor vliegen we een expert in. En niet de minste. Jaap van Zessen, de man die het AD opstuwde tot grootste nieuwssite van Nederland.

15
00:02:33.100 --> 00:02:47.660
En o ja, we hebben nieuws over een eigen nieuwsbrief. Dus spits je oren. Veel plezier met deze aflevering. [muziek] Ja, we hebben je gemist vorige week. Ja. Je was in Seoul. Ik was in Seoul. Wat was je daar aan het doen?

16
00:02:47.820 --> 00:02:59.780
Ook echt voor drie dagen of zo. [lacht] Ik was op uitnodiging van Samsung in Zuid-Korea. Uh, Samsung doet ook dingen met AI. Nee. Dat wilden zij graag laten zien aan de internationale media.

17
00:03:00.580 --> 00:03:15.540
Uh, tot mijn spijt ging het erg veel over AI in wasmachines, AI in kookplaten, AI in, uh, ovens, AI in luchtverversers. Uh, het was wel erg veel van dat, uh, dus dat vond ik eerlijk gezegd niet bijster interessant.

18
00:03:15.640 --> 00:03:24.320
Ook omdat het oude technologie was en dat je vooral het idee hebt dat het een bedrijf wat heel graag wil laten zien aan de buitenwereld. We, wij doen ook echt wel dingen met AI.

19
00:03:24.400 --> 00:03:29.640
Ja, maar dan vooral in de huishoudelijke sfeer. Een soort eigen huis en tuin. Ja, maar met alles. Samsung maakt natuurlijk van alles.

20
00:03:29.840 --> 00:03:39.200
Dus het is niet alleen maar, uhm, uh, ja, mobiele telefoons waarbij, waarbij je kan zeggen daar is, dat is de forefront, zeg maar, met hoe we met AI communiceren.

21
00:03:39.220 --> 00:03:51.320
Maar zij zeggen: ja, in onze tv zit ook AI, want, uh, als het be-beeld stoort dan gebruiken wij AI om de storing weg te halen. Nou ja, goed, daar kun je, daar kun je heel lang over praten. Ja. Het is maar gebleken.

22
00:03:51.360 --> 00:04:02.640
Ik denk wat, wat ik wel relevant vond, want er is daadwerkelijk ook wel, uhm, ik vond dat daar ook wel echt iets interessants gebeurde. K-, uh, Samsung heeft, is natuurlijk de grootste mobiele telefoonmaker.

23
00:04:03.440 --> 00:04:15.740
Uh, niet alleen van, uh, devices die wij in onze handen houden en, en gebruiken waar het Samsung-logo op staat, maar ook omdat er Samsung-onderdelen in heel veel andere telefoons en andere producten zitten.

24
00:04:15.800 --> 00:04:27.740
Dus het is een relevant bedrijf en met eigen semiconductor business en het is gigantisch. Uh, dat, ze. M-hm. Maar dat gezegd hebbende, wat doen zij met AI en wat echt relevant is.

25
00:04:27.920 --> 00:04:39.420
We, we hadden een gesprek met de baas van Samsung Research. Dat is de tak die haar eigen foundational model maakt en dat gebruikt Samsung nu, zeggen zij, voor interne tooling.

26
00:04:39.460 --> 00:04:50.410
Dus ze hebben een eigen ChatGPT gemaakt waar ze, die bijvoorbeeld kan helpen met programmeren zoals programmeurs, uh, in den lande überhaupt overal, uh, ChatGPT gebruiken om te helpen met programmeren.

27
00:04:50.440 --> 00:04:58.500
Maar Samsung zegt: ja, wij gaan natuurlijk niet bij OpenAI onze eigen source code invoeren of bij Google onze eig-onze eigen source code invoeren, want dat zijn concurrenten.

28
00:04:58.560 --> 00:05:05.420
Dus daarom maken wij onze eigen foundational model daarvoor. Ja. Nogal een flex. Zo'n soort power move dat je dan, dat je.

29
00:05:05.460 --> 00:05:11.340
Maar dat snap je ook als het gaat om- Maar is het, nee, is het pure flex of is het ook echt een, een slimme move om dat zelf te doen?

30
00:05:11.700 --> 00:05:22.840
Het is een beetje, uh, ik vind dat een beetje ingewikkeld, want ze, ze, uh, zeggen dus wij gaan, wij, wij vertrouwen Google niet, uh, genoeg om onze source code daarin te dumpen.

31
00:05:23.380 --> 00:05:37.000
Maar tegelijkertijd zeggen ze wel tegen ons consumenten: gebruik AI om al je problemen op te lossen. O, ja. Zeg maar. Ik ga ervan uit dat dan die Samsung AI straks ook onderdeel wordt van de Samsung Assistent.

32
00:05:37.040 --> 00:05:43.060
De AI-assistent die er natuurlijk gaat komen. Nu wordt hij nog ge-gedreven door OpenAI en, en Google.

33
00:05:43.140 --> 00:05:54.840
Ze hebben deals met allebei om die spraakassistent in het Samsung-operatingsysteem te krijgen, wat een versie is van Android. Uh, maar zij zeggen: wij willen het beste AI aanbieden aan onze gebruikers.

34
00:05:54.940 --> 00:06:02.160
Of die nou van OpenAI is of die nou van Google is, dat maakt ons niets uit. Maar het zou ook, wij denken dat we alle papieren hebben om zelf de beste te maken.

35
00:06:02.220 --> 00:06:10.920
Oftewel ze zeggen het nu nog niet, maar er gaat een moment komen waarop zij hun eigen AI naar voren schuiven en dan niet meer ook kosten hoeven te maken bij, bij OpenAI en Google.

36
00:06:10.960 --> 00:06:21.868
En dan zeggen ze dus eigenlijk ook: ja, gebruik ons maar. Gebruik ons maar, want wij zijn te vertrouwen. Ja. Terwijl ze zelfZeg maar geen AI van Google willen nemen voor hun eigen shit.

37
00:06:21.988 --> 00:06:29.328
Wij maken ons erg zorgen, maar jij hoeft je nergens zorgen over te maken. Dat vond ik een beetje een apart moment. Hoe dan ook, ze zijn bezig met hun eigen,

38
00:06:30.428 --> 00:06:39.008
met hun eigen taalmodel en dat was ja en dat is dat is toch interessant. En ze zeggen het niet zo hard dat ze willen mee concurreren dat.

39
00:06:39.068 --> 00:06:52.848
Sterker nog, ze zeggen heel hard we willen dat niet concurreren met Google en, en OpenAI. Maar je merkt aan alles dat willen ze wel degelijk. Het is alleen nog vroeg en ze zijn. Dit is allemaal nog in aanbouw. Ja. Ja.

40
00:06:52.908 --> 00:07:00.668
Nou ja, ze zijn het aan het kweken in een kastje en op een gegeven moment mag het dan de tuin in. Zo is dat en dan wordt het misschien opgegeten door slakken, want daar schijnen er erg last van te hebben.

41
00:07:01.648 --> 00:07:07.428
Goed, we beginnen na deze mooie introductie van jou over jouw ervaring in Seoul met het nieuws.

42
00:07:08.048 --> 00:07:17.428
Nou ten eerste er is een ja, ik kan het niet anders dan een soort brandbrief noemen van dertien huidige en voormalige werknemers van OpenAI en Google Deep Mind.

43
00:07:18.288 --> 00:07:27.068
En daarin uiten zij nou ja, grote zorg eigenlijk over het gebrek aan veiligheidsmaatregelen bij die bedrijven en openheid over wat er allemaal gaande is.

44
00:07:27.748 --> 00:07:35.708
En dat heeft natuurlijk allemaal te maken met de risico's die zij zien dat er zijn bij de ontwikkeling van AI. En die zorgen, ja, die kennen we.

45
00:07:35.748 --> 00:07:44.308
Dat gaat natuurlijk van het vergroten van ongelijkheid tot toegang tot kwalitatieve informatie tot uiteindelijk misschien zelfs het uitsterven van de mens. Dat is allemaal heel gevaarlijk.

46
00:07:44.348 --> 00:07:54.668
Dus wat willen ze met die brief? Ja, zonder angst eigenlijk. Dat zeggen ze. We willen niet bang hoeven te zijn dat onze kop eraf gaat als wij alarm slaan ergens over of als wij kritiek leveren.

47
00:07:55.228 --> 00:08:05.748
Of we er nou nog werken of dat we er al weg zijn. Zolang dus eigenlijk er geen goede regulering is en die bedrijven daar zelf niet goed voor zorgen dat die veiligheid op orde is, doen we het zelf wel.

48
00:08:06.108 --> 00:08:11.808
Ja, dat zeggen ze dus eigenlijk. En ze zeggen met name twee dingen in die brief die ze dus hebben geschreven.

49
00:08:12.248 --> 00:08:20.288
AI bedrijven hebben bergen informatie over de risico's en beperkingen van hun systemen, maar ze delen dit nauwelijks, dus dat is een groot probleem.

50
00:08:20.688 --> 00:08:31.028
En we kunnen niet vertrouwen op vrijwillige transparantie van die bedrijven. En tegelijkertijd ontwijken zij effectief toezicht. Dus dat zijn de grote problemen die zij constateren.

51
00:08:31.068 --> 00:08:36.448
En daarom hebben ze een lijstje met eisen om om daar om om dat beter te maken.

52
00:08:36.488 --> 00:08:44.448
Ja, ik denk er is eigenlijk geen enkele sector waar waar zoveel zorgen de hele tijd worden geuit door de mensen die zelf in die sector zitten. Toch?

53
00:08:44.508 --> 00:08:52.388
Ja, er gebeuren hier een hele hoop dingen inderdaad en dit is er één van. Maar laat me eerst zeggen volgens mij is dit een soort van na-etterende wond van

54
00:08:53.688 --> 00:09:00.148
de coup die bij OpenAI is gepleegd een half jaar geleden, waarbij de board in opstand kwam en Sam Altman eruit zette.

55
00:09:00.608 --> 00:09:12.108
En Sam Altman kwam daarna natuurlijk als een soort van Romeinse strijder terug en verstevigde zijn zijn zetel alleen nog maar heftiger. Hij kreeg alleen maar meer macht. Maar een tumor, zo kan je het ook zien.

56
00:09:12.208 --> 00:09:25.048
Oh ja, nou dat is ook een metafoor, maar er is in ieder geval iets wat wat daar heel erg misging en waarbij een deel van dat bedrijf zich grote zorgen maakte over over de macht van het van het eigen bedrijf.

57
00:09:25.848 --> 00:09:30.688
En er komt steeds meer naar buiten over wat daar nou precies aan de aan de hand was.

58
00:09:30.788 --> 00:09:47.568
En deze open brief van een aantal OpenAI mensen, sommige ex OpenAI en die dus met naam en toenaam naar buiten komen, maar ook een aantal anonieme OpenAI medewerkers die hun naam niet willen delen omdat ze bang zijn voor hun werkgever en hoe ze zich hoe die daarop zouden reageren.

59
00:09:48.268 --> 00:09:54.428
Die inderdaad helemaal in dit frame zitten van AI is heel erg gevaarlijk en dat gaat best wel ver.

60
00:09:54.928 --> 00:10:06.028
Die Daniel Kok Tay Lo, dat is de soort van grote aanjager van deze brandbrief die in de die die onder andere in The New York Times gerapporteerd werd.

61
00:10:06.488 --> 00:10:24.368
Dat is een voormalig onderzoeker van de OpenAI Governance divisie en deze man even om te schetsen wat zijn ideeën zijn. Hij gelooft dat AI de mensheid zal vernietigen of catastrofaal zal beschadigen,

62
00:10:26.108 --> 00:10:41.428
dat de kans daarop 70% is. Oké, in zijn vorige baan bij OpenAI was hij nog aan het voorspellen dat Advanced General Intelligence, dus een geavanceerde versie van AI, in 2050 kwam.

63
00:10:41.468 --> 00:10:51.168
Maar toen hij eenmaal zag hoe snel het allemaal beter ging, dacht hij nou, volgens mij is de kans dat AGI er is 50% in 2027, dus in drie jaar.

64
00:10:52.168 --> 00:10:58.348
En hij gelooft erin dat OpenAI eigenlijk veel te weinig doet om dat risico te managen.

65
00:10:58.388 --> 00:11:12.988
Maar ik vind het even belangrijk om neer te zetten dat dit is in die soort van facties die je hebt, in de open, in de in de AI gemeenschap. Dit is een all out AI doomer. Dat is belangrijk om erbij te zeggen ja, dit is.

66
00:11:13.028 --> 00:11:19.588
Dit hoort bij het groepje mensen die dus vindt dat dat het helemaal mis kan gaan. En dat zit in een traditie, want

67
00:11:20.628 --> 00:11:32.868
ik zat een beetje terug te zoeken naar wat Sam Altman zelf allemaal heeft gezegd over dit gevaar van AI voordat chat GPT uitkwam. En toen was hij daar heel hard over. Dus bijvoorbeeld OpenAI.

68
00:11:33.388 --> 00:11:44.068
OpenAI's baas Sam Altman zei al zal waarschijnlijk AI zal waarschijnlijk hoogstwaarschijnlijk leiden tot het einde van de wereld, maar in de tussentijd zullen er geweldige bedrijven zijn, grapte hij in een interview in 2015.

69
00:11:44.108 --> 00:11:49.868
Een grapje? AI zal ons waarschijnlijk allemaal doden, grapte hij rond diezelfde tijd op een evenement in Nieuw-Zeeland.

70
00:11:50.328 --> 00:12:00.508
Kort daarna vertelde hij aan een New Yorker reporter over zijn plannen om daar om met zijn vriend Peter Thiel te vluchten naar Nieuw-Zeeland voor het geval er een apocalyptische gebeurtenis zou zijn.

71
00:12:00.528 --> 00:12:06.128
Hij heeft overigens ook een groot stuk land in Big Sur waar hij naartoe kan vliegen voor zo'n voor zo'n gebeurtenis.

72
00:12:06.608 --> 00:12:13.508
Vervolgens schrijft Altman op zijn persoonlijke blog dat super intelligente machines waarschijnlijk de grootste bedreiging vormen voor het voortbestaan van de mensheid.

73
00:12:13.988 --> 00:12:27.604
Om dan vorig jaar te zeggen het slecht, het slechte scenario. Ik denk dat het belangrijk is om te zeggen is dat het licht uitgaat voor ons allemaal.En uh nou maar wanneer waren het grapjes en wanneer was hij serieus?

74
00:12:28.484 --> 00:12:35.264
Nou, er was dus een tijd waarin uhm waarin AI bedrijven dit

75
00:12:36.744 --> 00:12:48.204
heel erg aan het benadrukken waren en OpenAI recentelijk nog toen ze in de senaat aan het hoe zeg je dat, zo'n hearing dat ze aan het getuigen waren voor de Amerikaanse Senaat werd dat heel.

76
00:12:48.344 --> 00:13:04.484
Vooral Sam Altman, die was heel erg bezig met het punt maken. Het gevaar is gigantisch en wij zijn de beste kans die jullie hebben om het gevaar te beteugelen. Want wij zijn heel voorzichtig, dus laat ons het doen.

77
00:13:04.724 --> 00:13:15.684
Dus eigenlijk het probleem en de oplossing tegelijkertijd aandragen. Ja, en de cynische manier om dit om hier naar te kijken volgens mij. Want Sam Altman is sindsdien heeft zijn toon gematigd, hoor.

78
00:13:15.724 --> 00:13:22.004
Inmiddels is het alleen maar hij. Hij praat niet echt meer over dit soort dingen. En sterker nog, hij wil een soort van dat hele veiligheid.

79
00:13:22.034 --> 00:13:35.344
Dat hele veiligheidspunt is inmiddels een soort van corporate speak geworden waarin die eigenlijk niks, niks echt meer zegt hierover. Dus dat die toon is gewoon veranderd. Maar ze hadden die, die, die ophef.

80
00:13:35.684 --> 00:13:45.704
Als je het cynisch wil zien, die ophef hadden ze nodig om geld op te halen. Dus eigenlijk zeiden ze tegen investeerders in een tijd dat AI nog helemaal niet zo boeiend was voor chat GPT.

81
00:13:46.264 --> 00:14:02.304
Ze zeiden tegen investeerders Luister, wij hebben een soort van een, een, een plan voor een bedrijf met AI wat wereld veranderend is met onbeperkte potentieel voor winst.

82
00:14:03.384 --> 00:14:09.564
Weet je, er is Er is geen technologie in de geschiedenis geweest die zoveel geld gaat genereren voor de mensheid als AI.

83
00:14:09.644 --> 00:14:17.644
Want alles wordt gerobotiseerd en we gaan de werkgelegenheid totaal op zijn gat gooien en straks hebben we geen banen meer nodig. En productiviteit gaat enorm.

84
00:14:17.654 --> 00:14:29.204
Productiviteit gaat door het dak en wij zijn degene die dit gaan brengen. Dus als je, als je ergens ooit had in had willen investeren, dan zijn wij het wel. En daarvoor heb je dat soort van doomer frame eigenlijk nodig.

85
00:14:29.284 --> 00:14:38.304
Die existentiële angst creëren van er is echt niemand anders die dit schip door deze storm kan sturen. Ja, één Het is definiëren dat er een storm aankomt. Ja.

86
00:14:38.944 --> 00:14:52.223
Dus dat is nogal wat om dat te te te claimen dat ja, dat is wel. Dat is een mening. Laten we wel wezen dat ja. Ja, die je mede zelf gecreëerd hebt. Ja, maar, maar daar dus ook een belang bij hebt om dat frame te creëren.

87
00:14:52.404 --> 00:15:05.024
Van dat het allemaal heel erg gaat zijn. Marketing. Ja, marketing om om reuring te veroorzaken. En nu die reuring. Nu is die reuring eigenlijk mainstream geworden. Dus bedrijven praten de hele tijd over over veiligheid.

88
00:15:05.084 --> 00:15:18.624
En dat is allemaal in de context van het einde van de wereld is daar dus. Ja, en inmiddels is het niet meer nodig denk ik om die ophef te creëren. Dus gaat het nu veel meer over alle voordelen die het gaat bieden.

89
00:15:18.664 --> 00:15:29.284
En dat het zo fijn is dat onze productiviteit omhoog gaat. Maar het zit nog in de breinen van de mensen die er gewerkt hebben, ingeprent eigenlijk dat het levensgevaarlijk is. En daarom deze brief. Ja, nou ik.

90
00:15:29.304 --> 00:15:37.604
Past in die traditie. Ja, ik denk dat heel veel mensen die daar bij die bedrijven werken dit ook wel echt geloven. Dit is niet ik denk voor.

91
00:15:38.184 --> 00:15:50.444
Dus je kan zeggen Sam Altman is een soort van briljant verkoper en het moet soort van gezegd worden Sam Altman zelf is geen AI onderzoeker. Het is een verkoper en een investeerder. Dus ja.

92
00:15:50.804 --> 00:15:58.464
Maar Sam Altman heeft er op dit moment niet echt meer belang bij om dit verhaal op te houden en is daarmee gestopt.

93
00:15:58.524 --> 00:16:12.634
Maar dat betekent niet dat er niet allemaal mensen zijn in die wereld die wel degelijk dat geloven dat het einde daar is en die denken ja, we moeten, we moeten iets doen. Want Sam Altman heeft de hele.

94
00:16:12.884 --> 00:16:17.204
Is de hele tijd dingen aan het doen die de veiligheid niet. Hij zet de veiligheid niet voorop.

95
00:16:17.244 --> 00:16:26.844
En dat dat beargumenteert die deze, deze groep die, die, die, die open brief heeft aangekondigd door bijvoorbeeld te zeggen wij hebben een safety, we hebben een safety board.

96
00:16:27.564 --> 00:16:43.844
Als we een nieuwe AI uitrollen, dan moet het eerst langs dat safety board. Maar zo blijkt uit het nieuws van gisteren in India is GPT vier getest in Bing zonder dat dat al aangekondigd was.

97
00:16:44.324 --> 00:16:53.904
Dus ze zijn. Op eigen houtje hebben ze gewoon GPT vier eigenlijk zonder dat te benoemen gelanceerd in India in een kleinere groep om te kijken hoe gaat het? Gaat dit mis?

98
00:16:54.264 --> 00:17:00.164
En het ging heel erg mis met GPT vier, want dat was die versie die waar die journalist die verliefd werd op die journalist. Weet je dat nog?

99
00:17:00.244 --> 00:17:09.704
Dus die, die, die AI, die zijn, die, die zijn vrouw, die die journalist en zijn vrouw uit elkaar probeerde te praten. Ja, opvallend verschijnsel was dat. Geweldig verhaal.

100
00:17:09.864 --> 00:17:12.724
Vroege versie van GPT vier waarvan alles mis mee was.

101
00:17:13.584 --> 00:17:25.064
Die waarvan, waarvan nou ja, deze, deze mensen uit deze brandbrief dus zeggen dat is nou typisch een voorbeeld wat langs ons safety board had moeten gaan en wat Microsoft en OpenAI er gewoon langs gerommeld hebben.

102
00:17:25.084 --> 00:17:39.564
En Microsoft heeft gisteren nog ontkend dat dit gebeurd is en is nu erop teruggekomen dat dat toch klopt en dat er inderdaad een kleine test heeft plaatsgevonden. Wat weer bijzonder vind ik.

103
00:17:40.024 --> 00:17:53.364
Wat ook uitgekomen is dat Helen Toner dat was, zo'n board member die opgestapt is of eruit gezet is in die hele couppoging dat zij niet wisten dat het board niet wist dat chat GPT er aangekondigd zou worden.

104
00:17:53.424 --> 00:18:00.344
Zij wisten niet dat het in de pijplijn was. Zij wisten niet dat het niet geland. Ze moesten via Twitter een soort van erachter komen dat chat GPT bestond.

105
00:18:01.044 --> 00:18:16.384
Hoe kan je als board soort van controleren op veiligheid als je niet eens weet dat fucking chat GPT gelanceerd gaat worden? Ja, en een deel van van die medewerkers gelooft en dit is denk ik de de kern van hun angst.

106
00:18:16.424 --> 00:18:30.816
Die geloven dat hoe meer computerkracht je AI geeft, hoe beter het gaat worden. We hebben gezien wat de computerkracht die ons GPT twee bracht. Ja, wat? Wat?Dat was bijzonder. Dat was een soort van basisschoolleerling.

107
00:18:30.876 --> 00:18:42.596
Die kon heel aardig zinnen achter elkaar zetten. Die was niet bijster intelligent, maar dat was wel indrukwekkend in de zin dat hij gewoon zinnen kon schrijven die op elkaar voortbouwden.

108
00:18:42.676 --> 00:18:58.176
En ja, wat leek op een menselijke gedachte van een zesjarige of zo? Ja, nou doe daar. Gooi daar een aantal jaren computertijd, dus serverkracht en training tegenaan. En drie jaar later heb je opeens een volwassen model.

109
00:18:58.216 --> 00:19:07.456
Ja, nou, ik zou zeggen een middelbare scholier. Een hele slimme middelbare scholier die kan programmeren en die goede wiskunde opdrachten kan doen. Nou, daar zijn we nu een beetje de slimme middelbare scholier.

110
00:19:07.636 --> 00:19:17.376
Ja, en heel veel van die mensen die daar werken die geloven. Nou, pak die computerkracht van de afgelopen drie jaar. Dat doen we nog drie jaar. Dat doen we nog drie jaar, dat doen we nog drie jaar.

111
00:19:17.416 --> 00:19:32.976
En inmiddels is er ook heel veel geld beschikbaar omdat al die doomer verhalen zijn opgehangen en het Nvidia het meest waardevolle bedrijf ter wereld is geworden gisteren omdat iedereen opeens helemaal gek aan het worden is en het geld uit alle kanten van de van de wereld opeens in dit soort weet je wanneer?

112
00:19:33.396 --> 00:19:48.376
Wanneer komen we op het moment dat er energiegebruik is van nou van een klein land? Wanneer is het energieverbruik van een een groter land? Wanneer is het energiegebruik van een grote kerncentrale? Wanneer?

113
00:19:48.616 --> 00:19:59.616
Zeg maar als wij gewoon energiegebruik toe gaan voegen en compute laten toenemen omdat we die Nvidia chips blijven inkopen en het wordt groter en groter en groter, waar zijn we dan over een paar jaar?

114
00:19:59.676 --> 00:20:08.576
Gaat hij en deze mensen geloven dat hoe meer compute je hebt als je dat gewoon maar meer hebt. En dat is beperkt nu. Maar als je daar meer van hebt, dan kom je dus op het moment dat

115
00:20:09.996 --> 00:20:25.516
ja, hebben we nog werk over drie jaar En er zijn Er zijn dit soort onderzoekers ook hoog in de boom bij Anthropic die geloven dat ze de komende drie jaar nog werk hebben en dat daarna klaar is omdat programmeurs dan vervangen zijn en mensen in fabrieken vervangen zijn door robots.

116
00:20:25.596 --> 00:20:30.196
En dat de geopolitieke gevolgen dusdanig zullen zijn dat weet je.

117
00:20:30.256 --> 00:20:41.876
Ja, ik hoorde een een YouTube interview waarin China gaat sowieso Amerikaanse AI bedrijven willen infiltreren, want dit zit op het niveau van zeg maar het Amerikaanse leger is 700 miljard.

118
00:20:41.936 --> 00:20:46.776
Hoe, hoe, hoe, wat is nog de wat is oorlog nog in in in?

119
00:20:47.276 --> 00:20:58.316
Dus die die, die die extrapoleren zo ver door op basis van die ene aanname van die compute, die compute tijd en de de een, het energiegebruik en de en de trainingstijd.

120
00:20:58.776 --> 00:21:09.456
Die denken gewoon als we zijn nu hier, we trekken dat lijntje door, dan zijn we over drie of vijf jaar daar. Ja, we, we. We moeten ons iets meer zorgen maken over de gevolgen.

121
00:21:09.476 --> 00:21:19.936
En ik denk dat die mensen dat wel echt geloven. Ja, nou en ik denk dat jij het ook wel echt gelooft als ik jou zo. Nee, of ik kan het niet voorstellen. Nee, ik weet het. Ik weet dat oprecht niet.

122
00:21:20.536 --> 00:21:33.875
Want want ik denk ook er zijn grote belangen en het is op dit moment voor de korte termijn een soort van geldmachine. Door dit verhaal op te houden. Ja, al het geld ter wereld stroomt nu naar jou toe.

123
00:21:33.916 --> 00:21:41.256
Als jij, als jij geloofwaardig bent op dit onderwerp. Maar ja. Oké. Ja. Dat vind ik nogal een perverse prikkel in het in in waarheidsvinding.

124
00:21:41.276 --> 00:21:53.516
Maar los van of we uiteindelijk naar inderdaad menselijke uitsterving toe gaan. En op zich, ik denk dat de wereld. Je zegt het. Prima vindt. Ja, het zou eens tijd worden. De aarde vindt het prima. De aarde. De aarde.

125
00:21:53.556 --> 00:21:57.316
Kunnen die slakken eindelijk leven? Ervoor gaan? Ja. Nee.

126
00:21:57.376 --> 00:22:07.356
De aarde kan op zich natuurlijk zonder ons, maar los van of dat überhaupt dat stadium ooit bereikt gaat worden, of iedereen zijn baan kwijt is en we alleen nog maar de politiek in kunnen omdat er gewoon geen enkele andere baan meer open is.

127
00:22:07.376 --> 00:22:16.876
En misschien zelfs dat niet. Ja. Ja. We waren de eersten die weer aanbrengen, hoor. Politiek. Maar er zijn onderweg natuurlijk wel veel van die andere problemen waar je dus tegenaan loopt.

128
00:22:16.916 --> 00:22:21.196
Zoals nou mensen die verliefd worden op een chatbot of informatie die gewoon niet klopt.

129
00:22:21.216 --> 00:22:31.896
Er zijn allemaal hele kleine problemen waar we nu eigenlijk al mee te maken hebben, dus het zou wel helpen als als er nu al mensen gewoon zich serieuzer bezig zouden gaan houden met de veiligheid van die producten.

130
00:22:31.956 --> 00:22:40.396
Omdat. Ja, het is misschien niet zo groot. Stel dat het niet zo groot is, hebben we nog steeds wel wel degelijk. Ja, ondervinden we de gevolgen van. Van.

131
00:22:40.436 --> 00:22:47.296
Ik denk dat Sam Altman denkt als je dit tegen hem zou zeggen, denk ik dat hij denkt wat een gelul allemaal. We zijn bezig om.

132
00:22:47.755 --> 00:22:56.876
Ja dag die man heeft geen recht van spreken, maar die heeft dit hele verhaal zelf de wereld in geholpen. Ja nee, maar ik denk dat hij zich gewoon niet zorgen maakt over de over dit.

133
00:22:57.276 --> 00:23:09.356
Dit klein bier wat jij nu beschrijft, namelijk verliefd worden op een chatbot en desinformatie. Ja, ja, hij heeft zijn eiland of zo. Nee, maar ook dat hij denkt de de soort van de voordelen voor de mensheid van AGI.

134
00:23:11.156 --> 00:23:25.956
Moet je nu niet in de weg staan door nu moeilijk te gaan doen Nee, door die paar woke medewerkers van mij die die die zich druk maken over. Over die elkaar gek aan het maken zijn met hun effectief effective altruïsme.

135
00:23:26.516 --> 00:23:38.576
Soort van filosofie. Zij gaan mij niet in de weg staan om nu als eerste AGI te bereiken. Want de mensheid, weet je, dit wordt een groot hoofdstuk in de geschiedenisboeken van de toekomst. Ga maar.

136
00:23:38.646 --> 00:23:49.316
Ga mij niet wijs maken dat ik nu ook maar een centimeter moet vertragen omdat we ons druk maken over desinformatie. Want de belangen zijn wel ietsje groter voor de mensheid dan dit. Ik denk dat hij dat denkt.

137
00:23:49.936 --> 00:23:58.806
Ja, nou heeft hij misschien ook best wel een punt. Oké, nou ja, het was in ieder geval een groot hoofdstuk in deze aflevering. Het was de bedoeling dat het een beetje beknopt zou behandelen. Sorry, dat is mislukt.

138
00:23:58.836 --> 00:24:07.646
Nee, maar het is. Het blijkt altijd toch wel weer veel interessanter dan je van tevoren denkt. Vraag is natuurlijk zullen de grote AI bazen gaan luisteren? Nou, we gaan het. We gaan het meemaken. Of niet?

139
00:24:07.776 --> 00:24:17.556
Zijn we allemaal uitgestorven? Niet luisteren? Nee, natuurlijk niet, maar je moet de vraag toch opwerpen. Dan Google AI Overviews waar de laatste tijd best wel veel.

140
00:24:18.016 --> 00:24:29.676
Als je het een beetje hebt gevolgd, dan heb je wel wat leuke dingetjes kunnen lezen. Google heeft natuurlijk al gezegd in mei Google gaat het googlen voor jou doen en dan heb je dus die nieuwe functie AI Overviews.

141
00:24:29.716 --> 00:24:36.716
Als je iets googelt komt er bovenaan de pagina een soort overzichtje met een antwoord op je vraag, in plaats van dat je zelf nog naar een link hoeft te gaan.

142
00:24:37.516 --> 00:24:48.584
En dat ging niet helemaal vlekkeloos, want Google ging rare adviezen geven als je een rare vraag had. Wat was je favoriet? Ik vondNou, dat je ook

143
00:24:49.764 --> 00:25:02.684
chlorine gas in je eten kon doen om het een beetje een extra beetje pit te geven. En dat kon je. Kun je goed serveren op een tuinfeestje. Dat vond ik wel een leuke. Maar ze hadden het ook over lijm.

144
00:25:03.444 --> 00:25:15.784
Hoe zorg je dat je je kaas niet van je pizza valt? Nou, dat doe je dan met lijm. Of hoeveel stenen je per dag moet eten. Dus ja, weet je, begrijp je zelf. Ja, dingetjes. Je snapt natuurlijk meteen dat is dat is onzin.

145
00:25:15.984 --> 00:25:26.584
Ja, maar de hele wereld gaat er wel zeggen Google, jullie kunnen helemaal niks. Ja, wat een sukkels. Ze schaamden zich volgens mij ook een beetje. Ja, het was ook een beetje. Het was een beetje een herhaling van die, die

146
00:25:27.524 --> 00:25:37.843
plaatjes generator die ze in Gemini uitbrachten, waarbij je een heel divers landschap aan nazi-officieren tekende op het moment dat je vroeg om hoe zagen nazi's eruit?

147
00:25:38.404 --> 00:25:49.244
Dat je dan ook een Aziatische nazi kreeg en een en een donkere nazi. En ja, dus daar was heel veel gedoe over. En eigenlijk gebeurt hier weer precies hetzelfde. En dit is een soort van hallucinaties die

148
00:25:50.184 --> 00:26:01.664
of nou ja, verkeerd geprompte situaties die bij andere AI bedrijven niet tot ophef zouden leiden, maar bij Google wel tot ophef leiden omdat we Google aan een hogere standaard houden.

149
00:26:01.764 --> 00:26:12.144
O ja, Google is ons beste kind dat eigenlijk altijd alleen maar tienen haalt. Google en nu een keer verprutst. En dan denk ik hoe kan dit nou?

150
00:26:12.184 --> 00:26:16.144
Ik denk dat je als ChatGPT iets fout zegt, dan, dan halen we nog een beetje de schouders erover op.

151
00:26:16.184 --> 00:26:23.004
Maar op het moment dat Google gaat zeggen je moet lijm op je pizza doen, dan dan vinden we dat schandalig omdat we Google associëren met de waarheid.

152
00:26:23.084 --> 00:26:33.364
Ja, maar het geeft ook iets interessants aan, want bijvoorbeeld dat stenen eten. Hoeveel stenen moet je eten op een dag? Nou, minimaal één kleine steen. Dat had hij gehaald uit een artikel van The Onion.

153
00:26:33.404 --> 00:26:43.164
Dat is een beetje. O ja, zout. De Amerikaanse speld. Ja. Dus wat je hier wel ziet, en dat is een beetje een juridisch dingetje, is dat Google nu dus informatie van plekken gaat halen.

154
00:26:43.244 --> 00:26:53.264
Maar die presenteert het als ware het informatie van Google. Dus het is opeens zij zijn de auteur. Ja, ja, ja. En dat is natuurlijk wel ja.

155
00:26:53.284 --> 00:27:00.984
Ik ben wel benieuwd hoe ze dat, hoe ze daar in de toekomst met hun overviews mee om zullen gaan. Want dan is het net alsof zij dat vinden of zij dat zeggen. Of

156
00:27:02.084 --> 00:27:11.104
dat als Google het googlen voor je gaat doen, dan zie je meteen de bronnen ook natuurlijk niet meer en dan is het die informatie. Nee, zeker. En ik denk dat dit 111

157
00:27:12.104 --> 00:27:21.984
soort van intellectueel argument is wat veel mensen zullen aanhouden om te zeggen ja, ik wil, ik wil het nieuws. Als ik nieuws ga lezen bijvoorbeeld, wil ik het altijd nog bij de Volkskrant halen. Of bij De Telegraaf.

158
00:27:22.004 --> 00:27:33.404
Wat dan ook. Je de soort van smaak is die je vertrouwt. Omdat ik dat vertrouw. Die merken vertrouw ik. En als ik het nieuws ga lezen bij Google, dan is me dat te vaag. Wat nou precies?

159
00:27:34.084 --> 00:27:41.564
Maar ik vraag me ook wel af of dat voor de. Of dat voor heel veel mensen boeiend is. Ik denk dat er heel veel mensen zijn die.

160
00:27:43.784 --> 00:27:56.504
Weet ik veel een, een tips willen voor de beste rugzak en daar op googleen en dan gewoon de eerste paar sites openen en dan wel geloven wat daar, wat daar staat. Of de Coolblue aanbeveling of de Amazon aanbeveling.

161
00:27:56.544 --> 00:28:09.484
Wat natuurlijk ook niet neutrale aanbevelingen zijn. Daar zijn commerciële belangen zitten daar achter. Ja. Dus eh. En dat ja, ik denk dat. Ik denk dat er heel veel mensen zijn die dat toch ook wel accepteren.

162
00:28:09.544 --> 00:28:21.444
De, de soort van. Wat betekent vertrouwen nog ook voor jongere generaties? Ik denk dat dat überhaupt allemaal heel diffuus is. Ja. Ja, dat denk ik. Ja. Nou, dat zou best kunnen.

163
00:28:21.504 --> 00:28:27.863
Je zou ook kunnen zeggen van ja, normaal moet er een redacteur op zitten voordat je iets kan stellen. Maar wie gaat dat dan doen? En wie gaat dan bepalen wat erin komt?

164
00:28:27.924 --> 00:28:38.344
Maar het is waarschijnlijk ook heel gewoon, heel commercieel ingestoken inderdaad. Ja. Nou en nu bij. Bij die AI overviews is er een, een grote beroepsgroep en dat is gerelateerd aan wat we net zeiden.

165
00:28:38.364 --> 00:28:51.024
Die die zich het meest zorgen maakt op het moment en dat zijn journalisten. Dit is in Amerika echt opgeblazen. Heel veel discussie over. Over dat Google nu het einde van de journalistiek aan het inleiden is. Daar wordt.

166
00:28:51.084 --> 00:28:55.684
Dit is een heel heftige discussie op dit moment in de in de Verenigde Staten. Op hoog niveau.

167
00:28:55.804 --> 00:29:09.364
In alle grote tijdschriften en alle grote kranten worden er echt vlammende opiniestukken geschreven en dat zit in de context van een aantal grote deals die gesloten zijn. Met uitgevers dus.

168
00:29:09.764 --> 00:29:30.564
De afgelopen half jaar of zo zijn er deals gesloten met de Washington, The Wall Street Journal, met Le Monde, met Axel Springer hier in Europa, met de Vox recentelijk met The Atlantic, recentelijk een aantal grote uitgevers waarbij Google of OpenAI als het ware hun content licentieert om te dealen met

169
00:29:31.524 --> 00:29:41.824
ja, met die AI. Want die bedrijven die zijn soort van boos dat dat hun content gebruikt is. Rechtszaken. Ja. New York Times heeft een rechtszaak aangespannen, dus die kiest een andere route.

170
00:29:42.604 --> 00:29:52.464
En andere uitgevers die zeggen nu oké, ja, we gaan samenwerken met deze AI's, want het is een. Het is een soort van businessmodel wat we ja, dit wordt gewoon onderdeel van ons businessmodel.

171
00:29:52.504 --> 00:30:04.824
Dat we voor een deel betaald gaan worden door OpenAI en Google, die dan onze content mogen gebruiken. En dat komt allemaal omdat nu onder druk staat hoe mensen in de toekomst nieuws gaan consumeren.

172
00:30:04.984 --> 00:30:16.544
En de verwachting die soort van grote techbedrijven hebben is dus in navolging van die AI overviews. Je je zoekt op iets en Google geeft het resultaat in plaats van dat je naar op een link klikt.

173
00:30:16.804 --> 00:30:27.104
Ja, dat heeft hele grote gevolgen voor uitgevers, omdat die nu nog gewend zijn heel veel traffic te krijgen van Google. Omdat mensen doorklikken via linkjes.

174
00:30:27.844 --> 00:30:39.424
Maar als Google of OpenAI of Apple straks als die overal die spraakassistent voor gooien, als jij iets zoekt of als jij kenbaar maakt. Ik wil nieuws lezen en, en we leven straks in een toekomst waarin we.

175
00:30:39.464 --> 00:30:50.094
Waarin er minder aandacht is voor apps, maar er meer aandacht is voor bijvoorbeeld een knop als Ik wil nieuws weten, Siri. En wij gaan dat vertrouwen. En nou ja, dan gaat Apple het voor ons uitkiezen.

176
00:30:50.184 --> 00:30:55.752
Ja.Hoe gaan uitgevers dan nog geld verdienen? Want je gaat niet naar de website toe waar een bannertje te zien is.

177
00:30:55.772 --> 00:31:06.731
Dat is nu het businessmodel, maar je gaat gewoon bij Google of bij Apple of bij OpenAI blijven in die app of dat deel van het opereringssysteem. Nou ja, door dus zo'n deal te sluiten dan. Nou, dat is dan het alternatief.

178
00:31:06.792 --> 00:31:14.332
Door dan zo'n deal te sluiten. En, uh, ja, eigenlijk het opgeven, want dat is dan een beetje hoe ik dat dan zou noemen.

179
00:31:14.372 --> 00:31:26.031
Dan zeg je dus eigenlijk wij vertrouwen er niet meer op dat mensen naar onze website komen, zijnde nou ja, The Atlantic bijvoorbeeld. Of, of, uh, Bild in Duitsland, een Axel Springer krant.

180
00:31:26.552 --> 00:31:34.172
Wij denken dat mensen in de toekomst het nieuws van Siri gaan krijgen en we willen geld van, van Axel Springer of van OpenAI.

181
00:31:34.272 --> 00:31:40.172
Want misschien is dat toch ook wel efficiënter als je er zo over nadenkt voor die bedrijven zelf. Dan hoeven ze niet meer die website in de lucht te houden.

182
00:31:40.192 --> 00:31:45.352
Ik bedoel, waarom zou je daaraan vasthouden als het ook efficiënter kan, waardoor het makkelijker bij de mensen komt?

183
00:31:45.432 --> 00:31:51.172
Ja, ik denk dat dat in veel, met veel, uh, gevallen als het over informatie gaat, dat het ook inderdaad prima is.

184
00:31:51.192 --> 00:32:01.292
Als jij nu een website runt waar je een overzicht maakt van de beste rugzakken, dan is het misschien niet erg dat, dat niet, dat, dat, dat je geld verdient doordat je het geld van OpenAI krijgt in plaats van via bannertjes op je website.

185
00:32:02.052 --> 00:32:18.812
Maar in het geval van journalistiek, waar we soort van in de, in de democratie er belang aan hechten dat dat onafhankelijke bedrijven zijn die, ja, zonder soort van, uh, zonder te beïnvloed te worden door commercie, uh, ook kritisch nieuws brengen over bedrijven.

186
00:32:19.292 --> 00:32:28.712
Hoeveel vertrouwen hebben we er dan in? Hoeveel vertrouwen gaan we leggen in soort van drie grote bedrijven die dan voor ons gaan selecteren welk nieuws we, we.

187
00:32:28.732 --> 00:32:34.732
Kijk, we komen uit een tijd dat social media al een soort van algoritmes hadden en dan beïnvloedt waar we op gaan klikken. Ja.

188
00:32:35.212 --> 00:32:44.812
Maar dat is in ieder geval nog mensen nu.nl gaan naar de NRC app openen of naar Telegraaf.nl gaan om gewoon, weet je, het overzicht te krijgen zoals dat bedacht is door een redactie. Ja.

189
00:32:45.432 --> 00:32:54.912
Nou, als je dat, als je denkt, als je denkt nou, dat boeit ons eigenlijk niet, dat, kijk maar even. We, we kij-, we gaan gewoon journalistiek maken en dan kijken we wel even of OpenAI dat gaat doorgeven aan gebruikers.

190
00:32:55.592 --> 00:33:06.162
Ja, ik denk dat, je kan wel een aantal nadelen verzinnen, uh, daarvan voor, voor jou, nou voor, voor, voor de journalistiek in de eerste plaats. Maar in de democratie toch wel? Ja. Ja.

191
00:33:06.192 --> 00:33:14.432
Ja, nee, informatie is nogal een dingetje in een democratie natuurlijk. Ja. Als het valt of staat erbij. Nee. En ja, precies.

192
00:33:14.452 --> 00:33:23.452
Nee, als een, een techbedrijf daartussen gaat zitten, dan kun je je afvragen of dat goed afloopt en sowieso of ze niet al niet überhaupt te veel macht hebben. En dan gaan we ze nog meer macht dus eigenlijk.

193
00:33:23.532 --> 00:33:31.412
Ja, dus dat en, en, en gewoon het businessmodel. Want nu is het zo dat, weet je, je gaat naar nu.nl en dan heel nu.nl. Daar betaal je natuurlijk niet voor.

194
00:33:31.452 --> 00:33:38.472
En de manier waarop nu.nl kan leven is omdat daar advertenties op staan. Maar ja, dat bestaat bij de gratie van dat mensen die site bezoeken.

195
00:33:38.492 --> 00:33:47.332
En als dat, als er dus een toekomst in het verschiet ligt en die verwachting is er, waarin mensen geen reden hebben om die site te gaan bezoeken. Ja, hoe, hoe betalen we dan journalistiek?

196
00:33:47.532 --> 00:33:54.692
Dat, dat is dan mensen die een abonnement nemen op de Volkskrant en op De Telegraaf. Oké, dat kan. Maar laten we wel wezen, dat is een kleine groep. Ja.

197
00:33:54.952 --> 00:34:05.912
Dus daarom is er nu zoveel ophef in de Verenigde Staten van journalisten die zeggen dit, dit is, ik weet niet hoe dit, hoe je dit probleem moet gaan oplossen, want dit, deze golf komt op ons af.

198
00:34:06.792 --> 00:34:18.292
Uhm, uhm, maar dit is, dit is een, een, een bijl aan de, aan de wortel van het verdienmodel en daarmee aan de hoeveelheid journalisten die we hebben rondlopen. Ja, nou ja, het leeft natuurlijk, uh, enorm voor onszelf.

199
00:34:18.492 --> 00:34:25.732
Ik noem mezelf ook journalist. Ik werk in de journalistiek, dus, uh, het raakt mij zeker. Ik heb ook wel ideeën over, maar ik ben niet de expert op dit gebied.

200
00:34:25.772 --> 00:34:37.392
We hebben wel iemand die, uh, media expert is, een digi-digitaal strateeg. Die gaan we straks bellen. Jaap van Zessen. En we zijn heel benieuwd naar wat hij hierover te zeggen heeft en hoe hij deze ontwikkeling ziet.

201
00:34:37.512 --> 00:34:46.772
Maar eerst moeten we even naar de reclame. Ja, wil je dat ik het reclame muziekje in start? Doe maar. Dat vind ik wel leuk. Kun jij een keer met reclame muziek doen? Ben je er klaar voor? Heb ik nog nooit eerder gedaan.

202
00:34:46.942 --> 00:34:56.652
Nou, heel veel plezier! Dank je wel. [achtergrondmuziek] Poki wordt gesponsord door Squarespace. Ben jij een ondernemer die zich wil onderscheiden en online succes wil boeken? Let dan even op.

203
00:34:57.212 --> 00:35:04.212
Een beetje ondernemer heeft een website. Maar maak je al gebruik van Squarespace om op eenvoudige wijze de meest prachtige websites te maken?

204
00:35:04.912 --> 00:35:11.412
In een wereld waar iedereen op Instagram rijk lijkt te worden van het verkopen van online cursussen, hoef jij niet achter te blijven.

205
00:35:11.992 --> 00:35:19.412
Squarespace biedt je de mogelijkheid om je expertise en content eenvoudig om te zetten in een stabiele inkomstenstroom.

206
00:35:19.432 --> 00:35:28.172
Met Squarespace's lidmaatschapsfunctie kun je exclusieve toegang verkopen tot online cursussen, betaalde nieuwsbrieven, video's, communities en meer.

207
00:35:28.212 --> 00:35:38.272
Of je nu een chef-kok bent die culinaire geheimen deelt of een financieel adviseur met waardevolle inzichten. Squarespace geeft je de tools om je content veilig te delen en te gelde te maken.

208
00:35:38.812 --> 00:35:49.602
Ik heb het geprobeerd en het opzetten van een lidmaatschap site was verrassend eenvoudig. Ik kon stijl, exclusieve toegang bieden tot digitale netwerk events en bijvoorbeeld een-op-een coachingsessies.

209
00:35:50.312 --> 00:35:59.192
Squarespace maakt het je makkelijk om je eigen website te maken, zodat je je kan focussen op het gedeelte wat je leuk vindt: het verkopen van je product. Realiseer je passie met Squarespace.

210
00:35:59.492 --> 00:36:07.832
Speciaal voor Poki luisteraars heb ik een speciale kortingscode. Ga naar Squarespace.com/Poki voor een gratis trial. Dan ben je klaar om je website te lanceren.

211
00:36:07.872 --> 00:36:21.952
Dan krijg je met de Pokicode Poki10 10% korting op je eerste aankoop. Terug naar de show. Oh [gelach] sneuvel ik toch een beetje op het einde. Ik was er bijna. Ik vond dat je het heel goed deed. Code.

212
00:36:21.992 --> 00:36:32.232
De code is dus Poki10. Poki10. Ja. Ja. Dat kun je invullen. En dan gaan we nu terug naar de show. Het grote onderwerp, ik zei het al. We gaan even bellen met iemand die hier wel verstand van heeft.

213
00:36:32.292 --> 00:36:38.832
Of in ieder geval meer verstand. Want jij zit hier natuurlijk ook wel behoorlijk in, in, in digitale verdienmodellen, hè? Ja, ja, ja, maar ik heb ook een belang.

214
00:36:38.972 --> 00:36:49.992
Dus, uh, het is heel goed dat we een onafhankelijke expert gaan inbellen. Ja, en dat is Jaap van Zessen, uh, digitaal strateeg. Hij heeft heel lang gewerkt voor het FD, het AD. Het AD, die andere. Ja, ja.

215
00:36:50.052 --> 00:36:54.242
Jij zit er helemaal in, in het FD. Maar het is AD. Ja, de wereld is voor mij niet groter dan het FD.

216
00:36:55.052 --> 00:37:01.852
[gelach] Hij heeft voor het AD geme-- uh, gewerkt en, uh, ja, hij was daar, heeft de hele digitale strategie ontwikkeld en, ja, niet onverdienstelijk kan ik wel zeggen.

217
00:37:01.932 --> 00:37:12.744
Dit is een naam die altijd rondgaat, hoor, in uitgeverscircles. Jaap van Zessen is wel zo iemand die dan, uhmJa, die heeft het AD, uh, tot de grootste krant van Nederland gemaakt. Ja. Online.

218
00:37:13.084 --> 00:37:23.783
En hij wil ons te woord staan. We zijn vereerd. Nou Jaap, fijn dat je even tijd voor ons, uh, hebt kunnen maken. Ja, leuk om hier te zijn. Uh, je bent lange tijd chef van AD Digitaal geweest.

219
00:37:23.824 --> 00:37:36.224
Jij hebt, nou, uhm, de krant door die eerste grote golf van digitalisering eigenlijk weten heen te loodsen. Uh, AD Digitaal, dat is ongeveer de grootste nieuwssite volgens mij van Nederland geworden.

220
00:37:36.284 --> 00:37:45.524
Dus- De grootste toch? Ja, misschien wel de grootste, hè, ja. Ja, natuurlijk niet alleen gedaan. Het was mis-misschien de tweede golf, maar inderdaad, uh, ja, qua unieke bezoekers en daar wordt vaak naar gekeken.

221
00:37:45.664 --> 00:37:52.584
Ja, was AD, uh, unieke bezoekers per maand. Ja. En was AD op een gegeven moment de grootste site van Nederland. Dus dat was, uh, het doel en het lukte, dus dat was leuk. Ja.

222
00:37:52.664 --> 00:38:01.504
Dus waar iedereen worstelde met, uh, hoe gaan we dit doen? Hoe gaan we verdienen aan, uh, ja, internet? Want, uh, mensen willen gewoon niet betaalmuren en willen gratis kunnen lezen.

223
00:38:01.544 --> 00:38:06.504
En hoe, hoe worstel je je daar doorheen? Dat heb jij met, uh, nou, glas en wi-, glas, vlag en wimpel gedaan.

224
00:38:07.464 --> 00:38:17.764
Uh, en nu, uh, zien we van: ja, e-eigenlijk komt er weer nog een grote golf met digitalisering, uh, nu langs en o-op zo'n manier dat, ja, AI eigenlijk een hele grote invloed gaat hebben.

225
00:38:17.824 --> 00:38:26.184
Waarschijnlijk ook weer op hoe wij nieuws consumeren en hoe we het tot ons krijgen. Ja. En wij waren, i-, ja, als eerste wel heel erg benieuwd naar hoe jij dat ziet.

226
00:38:26.424 --> 00:38:36.104
U-is het een tsunami of is het een, een golfje waarvan je denkt: hé, daar kunnen we wel mee overweg. Nou, in eerste instantie kunnen we mee overweg, maar het wordt wel echt een tsunami. Het is bizar om te realiseren.

227
00:38:36.204 --> 00:38:41.044
Tot vorige jaar februari was ik daar chef digitaal, zeg maar, en op dat moment had ik ChatGPT nog nooit gebruikt.

228
00:38:41.344 --> 00:38:51.404
Nou, als je ziet waar we nu staan en hoe snel dat gaat, dat, uhm, ja, dat is bizar en dat ga- dat gaat zo snel en daar kun je zoveel dingen mee dat, uhm, ja, dit gaat wel heel veel veranderen, ja.

229
00:38:51.424 --> 00:39:00.584
Goede kanten en slechte kanten. Als ik het ook zo- Beide. Ja. Ja, zeker. Want w-w-waar wij, uh, op aansloegen. Nou, Google gaat nu voor ons googelen, dus dat hoeven we dan zelf niet meer te doen.

230
00:39:00.644 --> 00:39:10.214
Nou ja, gevolg daarvan is dat we niet meer op een link hoeven te klikken, maar dat, uh, Google het b-bij elkaar verzamelt voor ons. Dus we hoeven die omgeving van Google niet uit.

231
00:39:10.914 --> 00:39:19.084
Dat leidt natuurlijk tot minder verkeer voor die websites, uh, van kranten bijvoorbeeld, of andere nieuwsmakers of, uh, um, ja, informatieverschaffers. Is dat een probleem, denk je?

232
00:39:19.104 --> 00:39:25.604
Of hoe kun jij, hoe kijk jij daar tegenaan? Ja, als je een model hebt gebouwd op pageviews, dus het aantal artikelen dat gelezen wordt, ja, dan heb je wel een probleem.

233
00:39:25.664 --> 00:39:27.744
En de, de ene site zal harder getroffen worden dan de ander.

234
00:39:28.084 --> 00:39:39.184
Dus ja, het aantal artikelen dat gelezen wordt door verschillende mensen, die unieke visitors, uh, zeg maar, waar het over ging, ja, die zal naar beneden gaan en dat heeft, uh, nou ja, soms gevolgen voor het aantal advertenties dat je uitserveert.

235
00:39:39.234 --> 00:39:48.584
Aan de andere kant is het wel een beweging die je al een paar jaar ziet natuurlijk. Daarom zie je ook bijna bij elke site, uh, betaalmuren. Als het om een trouwe en loyale publiek gaat waar mensen wel willen betalen.

236
00:39:48.624 --> 00:39:55.684
Dus dan maar minder mensen. Als ze maar betalen, dan verdien je op die manier geld. Maar er zijn nog steeds heel veel sites, ook in Nederland, toch gebouwd op, ja, pageviews.

237
00:39:55.724 --> 00:39:59.724
Dus laat maar zoveel mogelijk mensen artikelen zien en die worden wel, uh, wel hard geraakt nu.

238
00:40:00.384 --> 00:40:06.644
En je ziet in Amerika ze omvallen, maar je ziet in Nederland ook wel echt, uhm, ja, cijfers dat, uh, websitebezoek aan het afnemen is.

239
00:40:06.764 --> 00:40:17.494
Kun je dat, uhm, kun je, kun je dat, uh, op, uh, op een of andere manier, uh, soort van duidelijk maken wat de consequenties zijn voor, voor die, die sites die gratis zijn voor de meeste mensen?

240
00:40:17.524 --> 00:40:29.264
Dan denken we aan NOS.nl, RTLNieuws.nl. Aantal soort van gratis nieuwssites. Ja, je kunt een beetje een percentage, j-j-uh, het gemiddelde is dat, zeg maar, één op de drie van alle sites, hè, dus dat is wel een verschil.

241
00:40:29.274 --> 00:40:37.984
Maar één op de drie bezoekers komt via Google, één op de drie via social en één op de drie komt direct. Dus di-die tikt het zelf in of die heeft de app. Die laatste categorie, dat zijn veel loyalere gebruikers.

242
00:40:38.024 --> 00:40:43.564
Die komen elke dag wel tien keer. Die komen veel vaker. En die andere groep, die komt veel minder vaak, maar die komt per toeval binnen.

243
00:40:44.064 --> 00:40:52.164
En die een derde is een gemiddelde, want bij de grote nieuwssites ligt het wel lager. Uhm, maar ja, die bezoekers die dus af en toe komen en die je voorbij zagen komen via Facebook.

244
00:40:52.284 --> 00:40:59.334
Nou, dat is al een beetje aan het instorten via Google. Dat gaat instorten. En dat betekent dat die toevallige, uh, gebruikers, ja, die worden minder.

245
00:40:59.384 --> 00:41:10.444
En dat, uhm, nou ja, dus dat is, dat, uh, voor een NOS.nl is dat niet per se erg, maar betekent wel dat ze andere manieren moeten bedenken hoe mensen, ja, op die site uit zichzelf gaan komen, want ze krijgen minder doorverwijzingen, denk ik.

246
00:41:10.664 --> 00:41:19.104
Maar je hebt wel NOS. Want wat maakt dat voor hen eigenlijk uit? Want zij hebben sowieso geen reclame-inkomsten, toch? Als ik naar die site ga, dan zie ik toch geen reclame, of wel? Jawel, de ster. Nee. Ja.

247
00:41:20.104 --> 00:41:28.964
Ja, daar is ook een discussie over of dat wel mogen of niet. Dus da- daar, uh, daar worden ook gesprekken over gevoerd. Ja, kijk, voor de NOS zal het niet zozeer, uh, gevolgen hebben denk ik. Uh,

248
00:41:29.864 --> 00:41:35.964
behalve dat, ja, ze zullen minder bezoekers trekken en zij zullen gaan zeggen: ja, maar we hebben een groep die veel meer leest en dat zijn de mensen die echt geïnteresseerd zijn.

249
00:41:36.304 --> 00:41:44.924
Maar ja, het doel is ook om mensen zoveel mogelijk te informeren. Dus om het nieuws bij zoveel mogelijk mensen te brengen. Nou, dat doen ze nu onder andere via Insta voor, uh, met, uh, NOS Stories, NOS op drie en zo.

250
00:41:45.924 --> 00:41:50.923
Uhm, maar ja, die echte, die, die bijvangst, zeg maar via Facebook en Google, hè, die vervalt.

251
00:41:50.944 --> 00:42:01.424
Ja, eigenlijk hoor ik jou zeggen: er zijn ander, er zijn nu t-twee derde van de traffic komt eigenlijk via Google en via, uh, social. Dat staat onder grote druk als ik jou goed begrijp.

252
00:42:01.744 --> 00:42:07.084
En dan is- Het gaat dus om, sorry, ja, ja, om de traffic van uniek per maand, hè, dus dat zijn, uh, op een dag is, zijn het er minder. Hm.

253
00:42:07.984 --> 00:42:14.344
Maar goed, die unieke per maand, dat is wel het lijstje waar veel naar gekeken wordt, zeg maar, die vaak gedeeld wordt. Je noemt net grootste site AD. Ja, dat is het in dat lijstje. Ja.

254
00:42:14.354 --> 00:42:21.264
Als je op dagbasis kijkt is NOS weer groter. Ja, oké, maar, uh, even, dus dan, d-, we hebben het over twee derde van de unieke bezoekers.

255
00:42:21.464 --> 00:42:28.724
Dat, dat, daar zou ik van zeggen: dat is gigantisch, het, dat dat onder druk staat. Dat is het [lacht] een heel groot deel.

256
00:42:29.084 --> 00:42:37.923
Maar jij maakt je er niet zoveel zorgen over omdat je zegt: waarschijnlijk zullen uitgevers gewoon ervoor gaan zorgen dat ze die, die mensen op andere manieren bereiken. Maar hoe dan?

257
00:42:39.424 --> 00:42:48.884
Ja, daar z-zijn ze al een paar jaar mee bezig. Door, uhm, nou ja, te zorgen dat mensen, ja, e-mail, alhoewel het een klein deel is, maar te zorgen dat, ja, het gaat een keer afnemen. Geniet ervan zolang het kan.

258
00:42:48.914 --> 00:42:54.184
Was ook altijd een beetje het, uh, het credo van: ja, je weet dat er veel verkeer zit, maar het gaat een keer instorten, want algoritme heb je niet in de hand.

259
00:42:55.044 --> 00:43:00.964
Dus zorg ervoor dat als er veel mensen op je site zitten bij je artikel, dat ze zich in gaan schrijven naar een nieuwsbrief. Dat er bijvoorbeeld een browser push komt.

260
00:43:01.004 --> 00:43:05.324
Weet je wel, zo'n pushbericht als je de app niet hebt. Hm. Dat je zo op je laptop, dat zijn ook best wel veel mensen.

261
00:43:06.064 --> 00:43:12.044
Ja, en je moet dus kwaliteit bieden waarvoor mensen ook willen betalen, waarvoor ze uit zichzelf terugkomen. Wat, ja, Google niet kan brengen.

262
00:43:12.224 --> 00:43:21.288
Want, uhJa, dus ik snap dat voor betaalde uit voor uitgevers die een betaald abonnement hebben dat daar zit er een Ja, weet je daar, die hebben een alternatief.

263
00:43:21.528 --> 00:43:25.388
Uh ook voor de dalende advertentie inkomsten die natuurlijk gerelateerd zijn aan minder sitebezoek.

264
00:43:26.048 --> 00:43:37.248
Uh dat, dat is helder maar, maar er is een heel erg groot deel van Nederland wat niet een abonnement heeft op een site, uh een op nieuws en ook niet van plan is om dat te nemen. W-wat betekent dat dan voor hen?

265
00:43:38.608 --> 00:43:46.688
Nou ja, voor de uhm voor de vaste bezoeker van NOS.nl. Die zal er niet zoveel van merken. Alleen ja, er zullen minder mensen zomaar ja via Google op die pagina's terechtkomen.

266
00:43:47.468 --> 00:43:55.828
En dat is denk ik voor het verdienmodel van NOS niet zo. Ja, niet per se heel erg of zo, maar bijvoorbeeld een Nu.nl heeft een veel grotere app, dus die wordt veel, heeft veel loyale publiek.

267
00:43:55.868 --> 00:44:01.928
Die worden weer minder hard geraakt omdat die uhm ja, die hebben gewoon veel vast terugkerend verkeer uit zichzelf al, zeg maar.

268
00:44:02.028 --> 00:44:10.508
De mensen die ja dus veel via Facebook en Google binnenhaalde, ja, die gaan minder uh binnenkrijgen aan bezoek. Ja, en dat, dat raakt je misschien in je portemonnee als je page views.

269
00:44:10.868 --> 00:44:18.348
En verwacht je dan dat die, die bezoekers, want je, je zegt die, die gaan minder komen via Google, door die, door die AI overviews.

270
00:44:18.407 --> 00:44:25.588
Verwacht je dan dat mensen dat nieuws dan gaan blijf g-, dat, dat ze op Google blijven, dat ze op Google.com het nieuws gaan lezen?

271
00:44:25.608 --> 00:44:38.708
Of hoe, hoe gaan dan die mensen die nu uh in twee derde van de gevallen via andere sites terechtkomen bij, bij NOS.nl bijvoorbeeld? Uh, hoe verwacht je dan dat die over een jaar aan hun nieuws komen?

272
00:44:39.948 --> 00:44:45.368
Ja, het lijkt er ook wel op, want uh in Amerika is natuurlijk gestart, dus kun je via VPN een beetje proberen dat het nieuws nog niet zo geraakt wordt.

273
00:44:45.388 --> 00:44:52.768
Dus het echte nieuws van de dag, die wordt nog steeds getoond in de carrousel zeg maar van, van artikelen. Zo bovenin, bovenin de zoekresultaten bedoel je? Ja.

274
00:44:52.868 --> 00:44:59.848
Dus als je Google dan krijg je daar heel duidelijk overzicht en dan klik je nog steeds op een linkje en dan ga je nog steeds naar die site. Dus het echte nieuws. Alleen je hebt ook een categorie verhalen.

275
00:44:59.868 --> 00:45:04.948
Een beetje de service journalistiek genoemd, uhm bijvoorbeeld van wanneer is het zomertijd of wanneer is het wintertijd?

276
00:45:05.048 --> 00:45:11.828
In mijn tijd bij het AD haalden die op zo'n zoekvraag gewoon 300.000 bezoekers binnen, zeg maar in, in een half jaar. Dat zijn van die artikelen.

277
00:45:11.868 --> 00:45:17.258
Ja, dat, dat, dat lag, dat was heel simpel, maar daar en die kwamen nooit hoog op de site te staan, zeg maar. Dus voor de normale bezoeker niet.

278
00:45:17.288 --> 00:45:25.528
Maar dan wist je gewoon ja, dat is een stroom, die komt binnen, die gaat dat lezen en leest daardoor misschien wel meer. Hoe krijg ik slakken uit mijn tuin? [lacht] Ja, dat soort dingen. En dat doen wel steeds meer.

279
00:45:25.568 --> 00:45:32.748
Dat doet niet alleen AD, dat doen ook alle andere sites nu wel. Ja, we helpen lezers. Ja, die categorie, ja, die ben je wel straks kwijt, want die gaat Google zelf beantwoorden.

280
00:45:32.888 --> 00:45:39.468
Maar het echte harde nieuws als er straks een uh ja, als er groot nieuws is of er is een aanslag, dan zal er nog steeds naar nieuws verwezen worden denk ik.

281
00:45:39.528 --> 00:45:58.708
Ja, dus eigenlijk wordt een beetje het, het, het kaf ook wel hè, als we dan even het nieuws over slakken of over het weer een beetje het kaf noemen van het koren gescheiden, dat die, die sites zich juist kunnen gaan richten op wat is nou echt belangrijk en inhoudelijk en uh wat doet er e-, ja, wat doet er echt toe, los van gewoon de consumentenrubriekjes eigenlijk.

282
00:45:59.168 --> 00:46:06.948
Ja. Dus in die zin zal een nieuwsites redden zichzelf wel. Maar ben jij bijvoorbeeld een blogger en heb je de afgelopen drie jaar elke speeltuin van Nederland beschreven voor je kinderen of zo? Weet je wel.

283
00:46:06.988 --> 00:46:14.168
Ja, dan word je, ja, dat zijn geen vaste bezoekers, daar kom je toevallig op uit. Als je zegt van: hé, wat zijn de leukste speeltuinen van Utrecht? En je hebt daar een blog over geschreven.

284
00:46:14.208 --> 00:46:20.228
Ja, dat gaat Google straks voor je doen. Ja. Dus in die zin pakt het de kleine sites wel aan. En de kleine bloggers, dat is wel, wel jammer.

285
00:46:20.268 --> 00:46:25.468
En jij verwacht dus niet dat mensen over een jaar aan hun spraakassistent gaan vragen: vertel me het nieuws.

286
00:46:25.608 --> 00:46:32.468
Of dat er een vertel me het nieuws knopje zit in je spraakassistent die gewoon een samenvatting geeft van het nieuws.

287
00:46:32.828 --> 00:46:44.368
Uh zoal en, en, en wat lekkerder wordt om doorheen te gaan dan dat het door Nu.nl of door NOS.nl heen te gaan is dat, dat soort van dat snelle checken van het nieuws. Wat mensen natuurlijk duizend keer op een dag doen.

288
00:46:44.808 --> 00:46:52.008
Jij verwacht niet dat dat naar uh AI-functies gaat in plaats van dat mensen zoals nu dat gewoon op de website van de uitgever bezoeken?

289
00:46:52.728 --> 00:46:59.238
Nou, ik denk dat zeker wel, want dat heb je nu ook al, hè, dat je inderdaad kan zeggen: nou, hoe lang wil je dat je nieuws is? Één minuut of vijf minuten? Wat zijn je interesses?

290
00:46:59.288 --> 00:47:04.208
Dat is nu nog Amerikaans, maar dat krijg je natuurlijk ook in Nederland en dan krijg je gewoon binnen die tijd het nieuwsbericht.

291
00:47:04.218 --> 00:47:10.868
Dus ik verwacht dat mensen op gaan starten de dag dat ze op een knopke uh drukken drukken en dat je dan uh het belangrijkste nieuws te horen krijgt in één of vijf minuten.

292
00:47:10.908 --> 00:47:15.088
Ja, dan ga je niet meer naar de site toe, maar dan hoor je dat. Dus curatie zal ook wel heel belangrijk zijn.

293
00:47:15.128 --> 00:47:22.048
Dus van ja uhm, het maakt mij niet uit of het op Nu.nl of NOS staat, maar geef me gewoon het laatste nieuws waar ik in geïnteresseerd bent ben.

294
00:47:22.088 --> 00:47:30.448
En hoe vaker die je gedrag volgt en hoe vaker die weet wat jij leest, ja, dan zal hij gewoon zeggen: joh, van al deze sites uh heb ik hier het nieuws voor jou gefilterd en dat zal in geluid zijn.

295
00:47:30.487 --> 00:47:38.748
Dat kan ook in video zijn of in een nieuwsbulletin. Mag ik? Die heb je er nu bij. Sorry. Nou ja, sorry ik onderbreek jou, maar ik dacht gewoon het maakt toch wel een beetje uit waar je het leest.

296
00:47:38.788 --> 00:47:44.988
Want als ik iets van de Volkskrant lees, dan, dan le-- verwacht ik iets anders dan wat ik in De Telegraaf lees. Ja.

297
00:47:45.308 --> 00:47:49.548
Dus nou ja, de vraag is wel van wil je dan het nieuws horen of wil je onderzoeksjournalistiek van de Volkskrant?

298
00:47:49.588 --> 00:47:58.088
Of uh, want er wordt altijd wel gedacht dat nou ja, De Telegraaf AD-achtige sites echt het nieuws brengen en Volkskrant niet. Maar betekent dat als er een aanslag is ergens, dat je dat dan niet wil weten?

299
00:47:58.148 --> 00:48:07.468
Of en hoe kort moet het dan samengevat worden? Dus daar zit wel verschil in. Uh, maar je kan natuurlijk ook zeggen van: hé, breng me alleen het nieuws van NRC en Volkskrant of alleen Telegraaf en AD.

300
00:48:08.268 --> 00:48:17.848
Uh en vat het voor mij samen. Of alleen van die journalist of alleen over die onderwerpen. Dat zal veel verder gaan. Maar dat is toch heel significant wat je zegt, want we hebben het over onderzoeksjournalistiek.

301
00:48:17.888 --> 00:48:23.328
Dat zullen mensen bij de site van de uitgever blijven halen, is jouw verwachting, want dan ga je niet een samenvatting van lezen.

302
00:48:23.348 --> 00:48:26.508
Misschien wel, maar daar zullen een hoop mensen over blijven die het hele verhaal willen lezen.

303
00:48:27.008 --> 00:48:34.548
Maar voor het snelle nieuws, laten we wel wezen een heel erg groot deel van onze huidige nieuwsconsumptie is gewoon even snel checken wat er aan de hand is.

304
00:48:34.608 --> 00:48:43.008
Of misschien even vermaakt worden of een update krijgen over wat er nu weer met een of andere realityster gebeurd is. Dat is natuurlijk een groot deel van hoe we nieuws consumeren.

305
00:48:43.468 --> 00:48:53.788
Verwacht je dat dat over een jaar helemaal bij Google en bij andere AI-bedrijven ligt? Of denk je dat dat nog steeds wel een groot deel blijft van het werk van uitgevers?

306
00:48:55.368 --> 00:49:02.348
Nou, ik denk wel dat op zich, zoals het er nu staat en, en niemand heeft een deal gesloten, dan ga, weet je, dan blijft het verkeer uh verdeeld worden over iedereen.

307
00:49:02.408 --> 00:49:09.348
Maar in Duitsland heb je Axel Springer en die heeft een deal gesloten voor miljoenen. Nou, als je dan het nieuws gaat vragen aan Google, dan krijg je alleen maar die Axel Springer sites.

308
00:49:09.628 --> 00:49:15.628
En in de Frankrijk heb je Le Monde. Die hebben ook een deal. Ja, dan gaat nieuws dus uitgeserveerd worden door die specifieke uitgever.

309
00:49:15.648 --> 00:49:24.344
Nou, die is er in de Benelux nog niet, maar ja, je kan wel radenOf daar zullen ongetwijfeld gesprekken mee gaande gaan. En als jij dan degene bent die dat hoort, dan krijg je en miljoenen en, en redelijk wat verkeer.

310
00:49:25.304 --> 00:49:34.944
En als je misschien niet diegene bent, ja, dan verlies je nog meer. Dus het is ook een beetje kijken hoe gaat die deal, uh, in Nederland, uh. En hoe denkt u dat dat gaat? Ik ben benieuwd. Ik weet het nog niet.

311
00:49:35.184 --> 00:49:37.574
Niet van inside in ieder geval. Ik verwacht wel dat er gesprekken gaande gaan.

312
00:49:37.634 --> 00:49:52.584
Maar wat zou je een uitgever adviseren als zij, uh, als zij twijfelen of ze een deal met OpenAI of met Google moeten sluiten om samenvattingen van hun nieuwsartikelen op te nemen in hun spraakassistent of het OS of wat voor AI-functie dan ook.

313
00:49:53.424 --> 00:50:02.064
Ik zou in ieder geval om tafel gaan zitten en, uh, kijken van Axel Springer is ook niet gek, want die haalt zoveel miljoenen binnen. Daar kun je heel wat redacteuren op, uh, voor aanstellen, zeg maar.

314
00:50:02.224 --> 00:50:08.244
Dus hoe lang is je contract? Wat doen ze ermee? Uh, ben je dan exclusief? Wat doet je concurrentie? Ja, daar wordt wel heel erg naar gekeken.

315
00:50:08.264 --> 00:50:19.784
Ik ken het verdienmodel niet precies, maar ik zag wel dat het om tientallen miljoenen ging, uh, per jaar. Mhmm. Maar daar kun je heel wat dingen voor doen natuurlijk. Hmm. Dus ja. Ja. D-, uh, over die deals gesproken.

316
00:50:19.813 --> 00:50:29.424
We, we hebben gelezen wat Jessica Lessin, dat is de bestuursvoorzitter van The Information, uh, daarover zegt. En die maakt zich wel een beetje zorgen over dat, dat er nu best wel veel bedrijven zijn.

317
00:50:29.444 --> 00:50:34.724
Ook The Atlantic en, nou, Reddit is natuurlijk ook al voorbij geweest. Niet dat het echt een nieuwssite is, maar daar wordt natuurlijk gediscussieerd.

318
00:50:35.104 --> 00:50:45.294
Dat al die data die zorgvuldig vaak tot stand is gekomen nu eigenlijk gewoon wordt weggegeven aan die hongerige taalmodellen die meer en meer informatie moeten hebben. En dat op die manier dus eigenlijk,

319
00:50:46.244 --> 00:50:52.844
nemen ze dat gewoon helemaal over. En daar maakt zij zich wel zorgen over. Ja, nee, dat is ook heel terecht natuurlijk.

320
00:50:52.884 --> 00:51:02.044
Er zit natuurlijk ook heel veel, uh, slechte kant aan dit verhaal en, nou ja, de concurrentie en de, en wat gebeurt er en wat gebeurt er met, met juridische rechten. Er komt nog heel veel bij kijken, weet je.

321
00:51:02.084 --> 00:51:10.094
Nu is alles nog redelijk open. Nou, ik probeerde gisteren een artikel te copy pasten van een regionale website in Nederland en dan kreeg ik een melding van nee copyright of weet je, daar kun je dan niet bij. Hmm.

322
00:51:10.594 --> 00:51:18.824
Dus er gaat ook heel veel afgesloten worden en er gaan heel veel deals ook op databases gesloten worden van: ja, hè, wat is het weer vandaag? Nou, als je met Weeronline samenwerkt dan is het handig, dan kun je dat.

323
00:51:19.054 --> 00:51:29.974
Of, uh, nou ja, er zitten heel wat deals die gesloten gaan worden met databases denk ik. Zodat je exclusief toegang krijgt tot een bepaalde database via een nieuwssite of zo. Hmm.

324
00:51:30.164 --> 00:51:34.144
Tenminste, ik weet niet of dat een beetje, een beetje logisch is, maar. Jawel, ja, ja, ik, ik moet gewoon.

325
00:51:34.264 --> 00:51:47.924
Zelf heb ik ook een beetje het gevoel van het is een beetje een deal sluiten met de duivel op een bepaalde manier van: we gaan alles van je overnemen en, uh, ja, we sluiten een lekker dealtje met je, maar vervolgens duwen we je wel als een soort koekoeksjong het nest uit van: en nu gaan wij het wel even doen.

326
00:51:48.624 --> 00:51:59.704
Ja. Weet je wel. We hebben nog steeds mensen nodig die daar het, het, het echt, het harde handwerk gaan zitten doen. Niet alleen maar, uh, machines die, uh, ja, een beetje elkaars content zitten te circuleren.

327
00:51:59.784 --> 00:52:08.424
Ja, en, en dus moet je inderdaad iets, iets maken wat niet g-, uh, rondgepompt kan worden, waarvan je altijd de bron bent, waarvan ze niet kunnen zeggen: hé, dit nemen wij over of zo, dus dan ga je juist die kwaliteit krijgen.

328
00:52:08.804 --> 00:52:17.224
Of een journalist als autoriteit dat je zegt: het maakt me niet uit wat er op, uh, wat er daar gebeurt. Ik wil gewoon weten wat iemand ervan vindt en diegene ga ik volgen en daar wil ik voor betalen. Ja.

329
00:52:17.244 --> 00:52:23.224
Dat kan voor journalisten natuurlijk ook heel interessant zijn, dat ze daardoor zelfstandig verder kunnen en niet bij een uitgever hoeven te zitten. Ja, dat zie je ook al met nieuwsbrieven veel, hè.

330
00:52:23.464 --> 00:52:32.524
Dat is ook een heel populair medium aan het worden. Ja, dat iemand voor jou cureert of zo. Van: ja, er is zoveel, uh, geef het maar. Ja. En zijn, zou je zeggen, ten slotte, hoor.

331
00:52:32.684 --> 00:52:36.044
Zou je zeggen dat Nederlandse uitgevers hier klaar voor zijn?

332
00:52:36.184 --> 00:52:53.524
Voor het idee dat, uhm, uh, uh, een heel groot deel van de bezoekers die iedere dag langskomen op dit moment, uh, over een, uh, nou, een pak 'm beet, uh, twee jaar, ik noem maar een, een afslag, uhm, via AI-tools komen van grote techbedrijven.

333
00:52:53.564 --> 00:53:01.944
Dat ze daar de samenvattingen van content lezen, uh, en, en niet op de sites van de uitgevers zelf. Heb je het idee dat ze cultureel er klaar voor zijn?

334
00:53:03.004 --> 00:53:10.744
Ik denk dat het, dat dat, nou er komen nu, er komt een beetje bewustzijn, maar er komt, er hangt nog wel iets boven dat het valt wel mee en het, uh, het loopt wel los in Nederland.

335
00:53:10.984 --> 00:53:19.044
Ze zien in Amerika van nou de nieuwssites komen nog steeds, komt veel bezoek binnen en zo. Ja, tot je zo'n deal krijgt misschien, waardoor je wel veel gaat verliezen. Dat hangt ervan af.

336
00:53:19.084 --> 00:53:23.964
Maar je ziet ook enerzijds verlies je wat verkeer, anderzijds kun je ook veel meer produceren, zeg maar aan artikelen. Ja.

337
00:53:24.104 --> 00:53:32.804
Dus als je, nou ja, op een AD.nl/een bepaalde gemeente kijkt, volgens mij heb jij het er ook wel eens over gehad. Dan, dan zie je daar het weerbericht. Dan zie je daar, uh, voetbaluitslagen.

338
00:53:33.584 --> 00:53:41.644
Uh, drie van de vijf berichten komen gewoon, zijn geschreven door AI. Mhmm. Omdat er een deal is gesloten met bijvoorbeeld de KNVB. Dat ze alle voetbaluitslagen krijgen die een ander niet heeft.

339
00:53:42.464 --> 00:53:50.984
En zo weet je als een, als je voetballer bent, hé, ik wil een wedstrijdverslag. Dan ga je naar AD.nl. Dus in die zin pak je dat verlies aan Google verkeer misschien wel op die manier weer mee. Omdat er gewoon mensen.

340
00:53:51.004 --> 00:53:59.724
Omdat je gewoon veel meer kan maken. Je kan veel meer maken ja, en dat, nou ja, dat compenseert een beetje. En dat, die gaan mensen niet vinden via Google, maar misschien wel als je bij de KNVB zit.

341
00:53:59.784 --> 00:54:07.513
En zo heb je natuurlijk nog wel heel veel- Ja. Van die databronnen waarbij jij de enige kan zijn, want dat heeft De Telegraaf bijvoorbeeld weer niet. Ik vind het nogal wat, hoor, dit allemaal. Ja.

342
00:54:07.513 --> 00:54:15.764
Dat we, dat dus de, de, het positieve nieuws is dat we meer AI-nieuws gaan lezen. [lacht] Of juist niet? Nou ja. Nou ja, kijk, kijk, sommige nieuws.

343
00:54:15.884 --> 00:54:25.263
Weet je, ANP is ook gewoon een soort van bron, hè, waar heel veel, uhm, nieuwsmedia uit putten. En alles wat ANP schrijft kun je door, uh, ChatGPT gooien en dan maak je er zelf een artikel van. Ja.

344
00:54:25.384 --> 00:54:33.404
Uhm, die rechten hebben ze, dat hebben ze gewoon afgekocht bij ANP. Dat mogen ze doen. Doen ze nu nog niet, maar ja, dan is de bron ANP. Ja, ja, ja, ja, ja. Daarvan zeggen we nu ook niet: die is betrouwbaar.

345
00:54:33.424 --> 00:54:43.284
Alleen jij schrijft dat iets, hè. Dus je kunt veel meer doen. Ja. En je kunt veel meer ook een belofte vervullen denk ik van, uhm, van: ja, waar sta je, wa-, welk nieuws kun je eigenlijk bij ons vinden?

346
00:54:43.404 --> 00:54:46.804
Ja, nou interessant, hoor Jaap. En ook, sowieso jouw vakbe-, vakgebied.

347
00:54:46.844 --> 00:54:59.004
Ik denk dat het wel handig is dat jij, uh, sinds 2023 dus, ja, drie, drie, digitaal strateeg bent geworden voor je, voor jezelf a-als zelfstandig ondernemer. En kan houden hebben. Ja.

348
00:54:59.844 --> 00:55:05.644
Ja, nee, het is, uh, er is heel veel werk en veel vraag naar de, naar, data was al nieuw en nu komt dit er ook nog een keer bij. Ja. Je merkt dat dat gewoon.

349
00:55:05.684 --> 00:55:11.844
Ja, voor mij, voor mij is het handig, want ik heb veel werk nu. Nou en voor ons, de rest van ons, uh, of van ons land, uh, de, de samenleving breder.

350
00:55:11.884 --> 00:55:18.254
Milo vroeg aan het begin: is het een klein golfje, is het een groot golfje? Ik kan, ik zou zeggen: het antwoord is wel gegeven in dit gesprek. Ja, tuurlijk. Het is, uh.

351
00:55:18.264 --> 00:55:26.736
Dank je wel Jaap, uh, dat je even wilde inbellen.Nou, dat was Jaap. Wil je nu meer volgen over, uh, Jaap en zijn werk in deze, uh, zich ontwikkelende wereld?

352
00:55:27.196 --> 00:55:37.696
Dan kun je gaan naar Jaap van Sesse punt nl nieuwsbrief en dan kun je je ook inschrijven voor zijn nieuwsbrief. Blijf een beetje op de hoogte. Ja, wat is nou, uh, w-wat blijft hangen na dit gesprek?

353
00:55:38.096 --> 00:55:48.656
Uhm, ik begrijp dat we, nou ja, stel dat je een nieuwsplatform bent en met een goed eigen verdienmodel en eigen smoel en, en onderzoeksjournalistiek en weet ik veel wat, dan hoef je gewoon niet heel erg zorgen te maken.

354
00:55:48.696 --> 00:55:55.476
Gaat niet heel veel veranderen. Ja. Ik vraag me wel echt ook een beetje af. Hij noemde al even dat koekoeksjong. We maken het nieuws.

355
00:55:55.496 --> 00:56:02.136
Wij zorgen dat we goed doorvochte stukken schrijven en we sluiten nu een soort deal waardoor we uit het nest uiteindelijk geduwd zullen worden.

356
00:56:02.176 --> 00:56:09.296
Want waarom zouden we nog die stukken schrijven als het toch alleen maar gaat rondzingen op een bepaalde manier? Snap je? Ja, zeker. Het voelt wel een beetje alsof je,

357
00:56:10.816 --> 00:56:12.996
d-ja, da-, er schuilt toch wel een gevaar in, denk ik.

358
00:56:13.476 --> 00:56:28.236
Nou, ik denk dat, uh, ik denk, kijk, m-mijn soort van basisaanname over hoe we informatie gaan consumeren in de toekomst, breder dan alleen journalistiek, is dat alles wat we gaan, wat we gaan consumeren op een of andere manier synthetisch gegenereerd is op een manier.

359
00:56:28.276 --> 00:56:38.096
Dus ik geloof dat alles, alle informatie die we tot ons krijgen, of het nou podcast, video, tekst is, dat het op een of andere manier aangepast is aan ons.

360
00:56:38.136 --> 00:56:48.556
Dus of ingekort of smeuïger gemaakt of gewoon alles is door een taalmodel getrokken. Ja. Ook die grote onderzoeksverhalen waar jij het over hebt. Ja. Dus dat is één.

361
00:56:48.596 --> 00:56:57.316
Ik denk dat we, dat we naar een toekomst gaan waarin we sowieso gewend gaan raken aan het feit dat, uh, ja, alles aangepast is aan ons.

362
00:56:58.356 --> 00:57:12.276
Nou, als je dat, dat is één aanname en, uh, als je dat eenmaal gelooft, dan is het dus voor het koekoeksjong werk of de, de noeste arbeid van gewoon nieuwsgaring zoals we dat van het ANP verwachten of van Nu.nl of zo.

363
00:57:12.326 --> 00:57:21.376
Gewoon snel overzicht van het nieuws. Wat is er gebeurd? Wat heeft de minister gezegd? Bla, bla, bla. Ja. Dan verwacht ik dat het werk van de journalist anders gaat worden.

364
00:57:21.526 --> 00:57:26.776
Namelijk dat zij gewoon, uhm, een soort van input gaan leveren aan een database.

365
00:57:27.156 --> 00:57:37.856
Zoals inderdaad wat Jaap zegt, wat het ANP nu doet voor kranten, namelijk je hebt een soort van bron die, uh, ei-, die je op eigen, op eigen inzicht kan hergebruiken.

366
00:57:39.096 --> 00:57:48.136
Zo verwacht ik dat eigenlijk het met al het nieuws zal gaan. Mhmm. Dus je, je, je hebt bronnen die je gelicenseerd hebt. Dus, uh, wat OpenAI en Google dan ook gelicenseerd hebben.

367
00:57:48.796 --> 00:58:00.976
Dat mag je gebruiken als bron en dan maak je daar eindeloze hoeveelheid eigen werk van. Ge-gepersonaliseerd voor iedere losse lezer. En dat betekent dat je dus als journalist niet meer hele stukken hoeft te schrijven.

368
00:58:01.116 --> 00:58:13.296
Dat betekent dat je een soort van snippets toevoegt aan een database. Het is alsof je- Quotes van mensen die je hebt geïnterviewd. Quotes gaat halen. Ja. Je kan ook perspectieven aan de telefoon halen van, uh, experts.

369
00:58:13.436 --> 00:58:26.036
Ja. Je kan, uh, weet je, ergens bij zijn op reportage. Ja. Maar dan lever je e-eigenlijk niet meer het, het werk wat s-journalisten nu zien als af namelijk. Ik heb een stuk geschreven en ik druk op publish. Nee.

370
00:58:26.096 --> 00:58:37.856
Nee, je levert eigenlijk gewoon de, de, alsof je de ingrediënten bent en, en de chef, uh, de chef-kok is de, is het taalmodel. Ja. En die kookt voor iedereen individueel. Dat is mijn verwachting.

371
00:58:37.896 --> 00:58:45.196
Dus ik denk dat het werk van journalisten heel erg gaat, uh, veranderen in de z-, in, in de zin dat je, ja, gewoon de vorm van je werk verandert, maar ook dat,

372
00:58:46.276 --> 00:58:53.056
uh, het mis, ook dat het, dat het, ja, heel plat en cynisch gezegd ook een stuk efficiënter wordt. Het hoeft maar, ik bedoel- Ja.

373
00:58:53.326 --> 00:58:59.376
Uh, want het, uh, dat aanleveren van die, van die brokjes, ja, daar heb je misschien ook minder mensen voor nodig.

374
00:58:59.536 --> 00:59:07.136
Of als je dezelfde hoeveelheid mensen gebruikt, dan kunnen die bij vers, bij meer verschillende dingen aanwezig zijn. Ja. Ja, of misschien- Ik weet niet of het goed of slecht is.

375
00:59:07.176 --> 00:59:16.496
Het verandert gewoon echt heel erg fundamenteel. Ja, het kan ook feitelijker worden. Zou kunnen. Omdat ik, als ik soms zelfs zo'n column aan het schrijven ben, denk ik: hoe, hoe zat het eigenlijk?

376
00:59:16.536 --> 00:59:23.146
Met welke bedrijven zaten we toen eigenlijk in die tijd? Maakten hoeveel rendement en zo? Dan denk ik van: nou, dat is wel heel veel uitzoekwerk. Laat maar, ik schrijf wel iets anders, weet je wel.

377
00:59:23.556 --> 00:59:29.536
Maar dat wordt nu heel makkelijk. Gewoon, zoek dat even uit. Ja. Misschien. Ja. Jazeker. Nee, zeker.

378
00:59:29.636 --> 00:59:37.596
En dus al dat, dat, wat ik, sommige journalisten vinden dat leuk, maar sommige mensen vinden dat ook een beetje handwerk wat ook heel veel tijd kost. Ja.

379
00:59:38.296 --> 00:59:43.476
Uhm, misschien wordt dat makkelijker en wordt het voor mij dus ook makkelijker om dat, uh, ja, te integreren in mijn stukken.

380
00:59:43.856 --> 00:59:53.776
Ja, en ik vermoed dat jij niet eens hoeft na te denken om dat erbij te halen, omdat de AI voor de lezer, individuele lezer gaat bepalen dat die, hij of zij die context nodig heeft. Ja.

381
00:59:53.856 --> 00:59:59.896
En dan zelf wel bepaalt of het die cijfers erbij gaat halen. Ja. Ja, kijk. Bepalen zelf. Het hangt natuurlijk allemaal vanaf.

382
01:00:00.476 --> 01:00:11.936
Kijk, mijn g-, mijn, ik denk onderliggend bij gewoon als we, als we, g-gewoon het punt: wat vinden we van, uh, AI bedrijven die deals sluiten met uitgevers? Ik denk mijn belangrijkste bezwaar is:

383
01:00:13.096 --> 01:00:17.756
AI bedrijven hebben er niet een belang bij om goede journalistiek te stimuleren.

384
01:00:17.936 --> 01:00:27.116
Als we iets geleerd moeten hebben van afgelopen, soort van, tien jaar mediabedrijven die meebewegen met Facebook en Google en allerlei social media bedrijven die natuurlijk.

385
01:00:27.256 --> 01:00:36.716
Weet je, we hebben zoveel gehad de afgelopen jaren aan, uh, instant articles en, uh, weet je, deals sluiten om YouTube video's te genereren.

386
01:00:36.796 --> 01:00:48.256
Of er zijn, er zijn zoveel, uh, soort van manieren geweest waarop uitgevers zich nu al hebben aangepast aan, soort van, de wensen van die social media bedrijven. Met vallen en opstaan allemaal. Ja.

387
01:00:49.056 --> 01:00:58.576
Uhm, dat, en bij al die tijd had je nog kunnen denken: uh, die technologiebedrijven willen dat er meer nieuws geconsumeerd wordt. Dat was toen nog geloofwaardig.

388
01:00:59.416 --> 01:01:16.536
Maar ik geloof in mijn kern niet dat AI bedrijven, uh, echt bezig zijn om j-, om goede journalistiek levend te houden. De, al deze deals zijn gewoon, uh, schikkingen zonder, uh, zonder dat er een rechter aan te pas komt.

389
01:01:17.016 --> 01:01:28.592
Dat, dat is hoe ik dit, deze... Het is gewoon de dreiging van rechtszaken, omdat het evident copyright infringement is. Ja.En om dat te bezweren worden nu vooraf licentiedeals gesloten.

390
01:01:28.852 --> 01:01:32.512
Dat is hoe Dat gaat ze een paar keer lukken, maar niet iedereen gaat erin mee natuurlijk, maar dat zullen we zien.

391
01:01:32.572 --> 01:01:45.172
Nee, dat is gewoon even snel geld ophalen voor uitgevers met ja voor voor uitgevers ja, maar maar weet je lange termijn. Geloven uitgevers er nou echt in dat OpenAI en Google het beste voor hebben met ze?

392
01:01:45.352 --> 01:01:55.492
Ik geloof er geen reet van. En al die, die, die, die taalmodellen van OpenAI en Google, die gebruiken gewoon de hele wereld om zich heen. Of het nou geschreven stukken of kunst of

393
01:01:56.452 --> 01:02:07.112
wat je ook maar maakt, dat is gewoon een soort all you can eat buffet. Ja, zo beschouwen ze het wel. Maar dat is natuurlijk niet hoe, hoe, wat. Het mag niet. Laten we wel wezen. Nee, inderdaad.

394
01:02:07.652 --> 01:02:16.732
Fijn dat er wat, wat reuring en ophef over bestaat. Ja, je moet gewoon een abonnement nemen op je krant, hè. Dat is de conclusie die we hier kunnen trekken. Middel. Neem een abonnement op een krant.

395
01:02:16.932 --> 01:02:27.052
Ja, en zo kun je activistisch zijn met je eigen portemonnee. Dat hebben we weer eens te meer bewezen. En dan hebben wij nog zelf een kort nieuwtje. De nieuwsbrief. Ja, want Pokie gaat uitbreiden.

396
01:02:27.132 --> 01:02:34.692
We hebben onze eerste medewerker. Dat is heel erg leuk. En ze is geweldig. Ze is geweldig. Ze heet Sjang en ze maakt voor ons een nieuwsbrief.

397
01:02:34.732 --> 01:02:45.112
Een gratis wekelijkse nieuwsbrief die je kunt nemen met de belangrijkste pain point denk ik wat veel mensen ervaren rondom AI namelijk. Het is helemaal niet bij te houden, al het nieuws wat uitkomt.

398
01:02:45.562 --> 01:02:53.392
Dat is voor ons al zo. Moet je nagaan als je niet een wekelijkse podcast maakt over AI nieuws. Het is gewoon niet te doen om dat bij te houden. En de Nederlandse kranten doen het ook niet.

399
01:02:53.432 --> 01:03:03.732
En Nederlandse kranten doen het niet, dus iemand moet het doen. Ja. Dus wij dachten we beginnen een gratis wekelijkse nieuwsbrief met het belangrijkste nieuws uit de wereld van AI. Daar kun je je voor aanmelden op www.

400
01:03:03.752 --> 01:03:14.192
Punt AI-rapport punt e-mail. Dat is dus van ons. En we doen ook een betaalde versie. Dan krijg je er twee keer zoveel. Dus dan krijg je hem twee keer per week.

401
01:03:15.212 --> 01:03:20.992
En dan houden we niet alleen het nieuws voor je bij, maar gaan we het ook veel praktischer maken. Dus hoe kan je het toepassen in je werk?

402
01:03:21.192 --> 01:03:35.372
Praktische adviezen Tools Nieuwe AI tools die uitkomen, die we recenseren voor je. Voorbeelden van prompts die je direct kunt toepassen. Oftewel hoe pas je AI toe in je dagelijks werk? En dat daarop kun je je abonneren.

403
01:03:35.392 --> 01:03:42.252
Kost € 120 per jaar. En daarmee betalen we dan weer die redacteur die die gratis nieuwsbrieven maakt. Dus dat is dat is het idee ja.

404
01:03:42.272 --> 01:03:51.792
Nou, als je dat leuk vindt, dan kun je gaan dus naar www, punt, AI-rapport, punt, e-mail. Dat moet de autoriteit worden op AI nieuws in Nederland. Nou moet je kijken hoe deze podcast aan het uitbreiden is. Middel.

405
01:03:52.032 --> 01:04:04.092
Ja, ik ben. Ik denk dat we onze taak serieus hebben opgevat en dat we nu nog helderder der, der, der voorwaarts kunnen. Ik hoop het. Ik hoop het. Dat zijn mijn slotwoorden.

406
01:04:04.132 --> 01:04:15.172
Nou, zo zie je maar hoezeer wij onze taak serieus opvatten om iedereen toch wel echt goed te informeren over AI. Zo is dat. Ja, ons kan niks verweten worden. Als straks het eind van de wereld daar is. Wij hebben het.

407
01:04:15.672 --> 01:04:25.092
Wij, wij, ons. Wij hebben zo lang hierover gepraat. Oké, goed. We hebben ons best gedaan. We hebben ons best gedaan. Dank voor het luisteren en wij danken ook Sam Hengeveld voor de edit.

408
01:04:25.552 --> 01:04:32.952
En dan zijn wij er weer volgende week. Dag. Doei. [outro jingle]
