WEBVTT

1
00:00:00.100 --> 00:00:10.400
[alarm] Oh! [zucht] Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op 0 millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.760 --> 00:00:39.920
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:50.340
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Ben jij van plan om dit jaar te starten met beleggen? Of ben je er al mee bezig en zoek je een portie inspiratie?

6
00:00:50.400 --> 00:01:01.780
Wij zijn Jasper en Twan, twee doodgemonomaag compleet verschillende beleggers en iedere donderdag vertellen wij in onze podcast 'De Lange Termijn' over onze beleggingsreis, onze lessen en met name onze fouten.

7
00:01:02.230 --> 00:01:11.000
En dat allemaal op een, uh, vermakelijke en laagdrempelige manier. Alsof je met ons in de kroeg staat. Met een whisky'tje erbij. Lekker. Dus luister eens naar onze podcast: 'De Lange Termijn'.

8
00:01:11.460 --> 00:01:20.460
Welkom bij Poki, de Nederlandse podcast over kunstmatige intelligentie waar we uitzoeken welke invloed AI gaat hebben op ons werk, ons leven en de samenleving.

9
00:01:20.480 --> 00:01:31.240
Vandaag met Wytse Hagen, tech-filosoof, en met mij, Milou Brandt. En deze aflevering, ja, het is allemaal prachtig wat AI ons aan vooruitgang brengt, maar nondeju, wat kost het een energie. In letterlijke zin.

10
00:01:31.300 --> 00:01:42.960
Het draaiend houden van al die datacenters. Eén groot datacenter, nou ja, dat gebruikt ongeveer evenveel energie als 80.000 tot 100.000 huishoudens per jaar. Dus we moeten het echt over de duurzaamheid van AI hebben.

11
00:01:42.980 --> 00:01:51.800
En op veler verzoek geloof ik, hè, Wytse? Ja, ik heb een aantal mails gekregen en na lezingen word ik er ook wel eens op aangesproken. Op een niet per se negatieve toon, maar wel nieuwsgierig.

12
00:01:52.360 --> 00:02:01.500
Hoe zit het eigenlijk met al dat energiegebruik? Want daar lees ik veel over. Dus vandaag gaan we daar een beetje induiken. En dat doen we niet alleen, maar dat doen we met iemand die er veel meer van weet dan wij.

13
00:02:01.630 --> 00:02:09.820
Maar eerst: Whisper, de hallucinante app van OpenAI en, uh, ja, de AI-speeltuin van GitHub en nog veel meer ander nieuws. Dit is Poki.

14
00:02:11.640 --> 00:02:29.480
[muziek] Ik neem nog even een slokje koffie. We gaan beginnen. Ja, we zijn begonnen. Oh [lacht]. Zitten we er al? Ja. Heb je, heb je hem al op? Wil je nog een beetje?

15
00:02:29.560 --> 00:02:38.440
Ja, ik zit een beetje te hoesten voor de luisteraars thuis, dus ik ga echt mijn best doen om dat er allemaal uit te houden. Dat heb je altijd. Ja, ik ben een beetje, ik praat gewoon veel.

16
00:02:39.480 --> 00:02:48.540
En daardoor denk je dat je kiebel krijgt in je keel. Nou ja, dan op een gegeven moment is het gewoon op. Je, pe-, heb je vandaag al ook heel veel moeten praten? Nee. Want het is nog relatief vroeg op de dag. Nee?

17
00:02:48.860 --> 00:02:59.910
Dat gaat goed. Oké, dan gaan we nu van start. Ja, laten we het eerst eens hebben over GitHub. Nou, jou natuurlijk wel bekend. Het is die centrale plek waar heel veel programmeurs en teams hun projecten, uh, ja, beheren.

18
00:03:00.000 --> 00:03:09.060
En, uh, in dat, in dat platform zit OpenAI geïntegreerd, want het is, het is van Microsoft. Maar, uhm, dat gaat nu veranderen. Want wat, wat is er aangekondigd?

19
00:03:09.760 --> 00:03:18.180
GitHub gaat de copilot, want zo heet dat dan, uitbreiden met modellen van Anthropic en Google. Daarnaast zal er nog een reeks andere updates en functies voor het platform komen.

20
00:03:18.240 --> 00:03:29.420
Dus ja, zo wordt het uiteindelijk een beetje een speeltuin met niet alleen maar het, het AI-toestel van OpenAI, maar, nou ja, ook allerlei andere toestellen waar, uh, programmeurs gebruik van kunnen maken.

21
00:03:29.720 --> 00:03:39.440
Ja, waarom het wel interessant is, is omdat, uh, ja, wat je zei het al, GitHub is van Microsoft en OpenAI is in delen van Microsoft. Een groot deel van OpenAI is in het bezit van Microsoft

22
00:03:40.340 --> 00:03:48.080
en dan is het eigenlijk logischer dat je natuurlijk alleen OpenAI-modellen integreert. Ja, exclusief zou je zeggen. Ja, dat is dan handig, dat, dan heb je er allebei profijt van.

23
00:03:48.600 --> 00:03:55.480
Maar, uhm, voor de eindgebruiker als in, nou, niet de eind-eindgebruiker, maar de ontwikkelaars die op het platform zitten is het alleen maar tof als je keuzes hebt.

24
00:03:55.500 --> 00:04:01.020
Want op dit moment is het eigenlijk zo dat de modellen van Anthropic, uh, Claude Sonnet 3.5 New. Ja.

25
00:04:01.500 --> 00:04:09.240
Als hij nu volmondig heet, uh, voor verschillende, voor bepaalde programmeertalen en frameworks eigenlijk veel krachtiger is dan wat OpenAI te bieden heeft.

26
00:04:09.320 --> 00:04:14.940
Dus voor de- Ja...ontwikkelaars op het platform is het fijn dat je nu keuze hebt, hè. Ook Gemini kan je nu kiezen van Google.

27
00:04:15.500 --> 00:04:26.160
Het is- Ja, en, nou ja, je hebt dus in Claude 3.5 van Anthropic, Gemini 1.5 Pro van Google en natuurlijk de oude vertrouwde ChatGPT-modellen. Ja, en dan even voor de luisteraar die nu echt denkt: wat is dit allemaal?

28
00:04:26.200 --> 00:04:33.040
Wat, wat, wat gebeurt er nu? Het verhaal is: je hebt copilot, uh, daar, die kan je helpen met programmeren, uh, binnen jouw verschillende tools.

29
00:04:33.100 --> 00:04:42.830
Ook binnen GitHub zelf zitten copilot features en die copilot draait op, uh, de GPT-modellen van OpenAI, maar dus nu ook op de modellen van Anthropic en Google. Als je wil. Als je wil.

30
00:04:42.840 --> 00:04:54.820
En waarom is dat een best wel een ding en verrassend is dus omdat die, uh, relatie tussen Microsoft en OpenAI heel erg, uh, knus is, uhm, maar blijkbaar niet meer helemaal. Dat zou je kunnen concluderen.

31
00:04:54.860 --> 00:05:03.600
Want we, we hebben ook in de afgelopen tijd, als je het een beetje hebt gevolgd, dat er een soort van, uh, een beetje rook er omheen, om die hele samenwerking, want er zijn wat barstjes in gekomen.

32
00:05:03.660 --> 00:05:13.039
Ja, omdat het is natuurlijk veel van de original founders van OpenAI zijn vertrokken om of bij Anthropic te gaan werken of zelf iets op te zetten. Ja. Er zal ook een deel naar Google zijn gegaan denk ik.

33
00:05:13.640 --> 00:05:21.300
En, uhm, ja, is, is eigenlijk OpenAI niet meer het OpenAI wat het was twee jaar geleden, uh, of een jaar geleden zelfs. Het is niet meer zo goed.

34
00:05:21.600 --> 00:05:30.550
Weet ik niet of we dat kunnen zeggen, want op, tot, in de race, zeg maar, als je naar de benchmarks kijkt, hebben zij nog steeds echt wel een heel krachtig model. En, uh, er zit een nieuw model aan te komen.

35
00:05:30.560 --> 00:05:35.680
Orion zijn een beetje de roddels, dus ik, ik denk eigenlijk dat niet per se dat het niet goed gaat bij OpenAI.

36
00:05:35.740 --> 00:05:42.020
Ik denk alleen dat Microsoft zoiets heeft van: uhm, wij gaan onze, wij gaan op meer paarden wedden en dat is best wel een, een groot ding.

37
00:05:42.060 --> 00:05:53.340
Hè, dat dit, dit zou een lezing kunnen zijn- Ja...uhm, van de situatie dat twee andere grote AI-concurrenten van OpenAI ook door Microsoft geïntegreerd worden. En het zet ook een beetje druk denk ik op OpenAI.

38
00:05:53.420 --> 00:06:01.020
Zo van: let wel op hè jongens, we vinden het geen enkel probleem om met jullie concurrenten samen te werken. Ja, ja, oké, dus, e-eigenlijk zijn er twee lezingen van dit nieuws.

39
00:06:01.300 --> 00:06:20.470
Eén: het zou kunnen duiden op dat er wat meer barstjes misschien wel vorm beginnen te krijgen in die, in die relatie tussen Microsoft en OpenAI.Maar het zou ook gewoon kunnen zijn dat, dat GitHub denkt: hè, misschien ben ik daarin dan naïef als ik dat nu zo lees, maar het kan ook gewoon dat, dat, dat GitHub hiermee laat weten dat ze inzetten op de allerbeste gebruikerservaring.

40
00:06:20.510 --> 00:06:32.170
Dat je, dat je die gebruikers het beste wil bieden. Ik denk een beetje van beide, maar de exclusiviteitsrelatie tussen Microsoft en OpenAI is voorbij. Sad. [muziek] Ik noem dat sad, maar, u, is dat, is dat sad?

41
00:06:32.210 --> 00:06:40.530
Maakt het uit? Nou ja, voor de markt is het beter, want, uh, of voor de, voor de eindgebruiker. Want je wilt, je wilt een diverse markt vol met spelers hebben die tegen elkaar kunnen opboksen. Ja, ja, precies.

42
00:06:40.570 --> 00:06:51.089
Nou, ander nieuws, uh, van OpenAI eigenlijk. We hebben wel veel OpenAI weer volgens mij. We zitten sowieso altijd goed in het OpenAI-nieuws. Ja, want daar gebeurt nog steeds gewoon veel. Ja.

43
00:06:51.490 --> 00:07:01.730
Ja, nou, d-, uh, deze, uh, week was, uh, Whisper. Dat is de, de, de, de transa— hoe zeg je dat, trans- Transcriberen. De transcriptietool inderdaad van OpenAI.

44
00:07:02.170 --> 00:07:08.950
Die, uhm, nou die, die haalt dus, uh, spraak, dat kan die omzetten in tekst. Ja. En wat is er nou aan de hand?

45
00:07:08.990 --> 00:07:22.430
Het blijkt dat, ja, de, de, de app iets te, uh, creatief is eigenlijk met die transcripties, want het verzint er van alles bij. Dat ontdekten onderzoekers. Ja, jij noemt het een, een, een app, Whisper.

46
00:07:22.560 --> 00:07:27.750
Ja, het is een tool. Nee, Whisper is ook beschikbaar als app, uh, maar dat, dat is omdat iemand Whisper daar weer achter ge-geknutseld heeft.

47
00:07:27.830 --> 00:07:34.130
Maar het is de API waar veel ontwikkelaars mee praten en dan audio naartoe zenden en tekst krug-, k-, terugkrijgen.

48
00:07:34.710 --> 00:07:41.780
Uhm, en je hebt ook desktop tooltjes zoals Mac Whisper die dat dan doen, waardoor het meer voelt als een app. Dus het is niet helemaal onwaar wat je zegt. Nee.

49
00:07:41.790 --> 00:07:50.730
Maar waarom dit gebeurt is omdat Whisper, uh, Whisper is zo goed in vergelijking met wat we vroeger hadden aan, uh, speech-to-text, omdat er een taalmodel bij zit.

50
00:07:50.760 --> 00:07:59.050
Maar van taalmodellen weten we inmiddels dat die gokjes maken voor de volgende token, oftewel een deel van het volgende woord. Ja. En dat daar gehallucineerd wordt. En, uhm.

51
00:07:59.070 --> 00:08:07.310
Ja, hij moet voorspellen wat er, uh, wat er gaat gebeuren. Nou ja. Dat is het idee erachter, toch? Nou ja, je pakt eigenlijk een combinatie van klanken omzetten in woorden. Ja.

52
00:08:07.410 --> 00:08:11.750
Om vervolgens met een taalmodel te zeggen: hoe logisch zou dit verhaal zijn nu?

53
00:08:11.810 --> 00:08:24.970
Het, wat je bij Whisper ook ziet bijvoorbeeld, is dat, uh, wanneer jij een verhaal begint, dat hij, als hij bij zin zeven is in het verhaal, nog dingen kan gaan aanpassen in zin één, omdat hij beseft: o, nu ik weet waar het verhaal over gaat, hoorde ik dus eigenlijk het woord hond.

54
00:08:25.310 --> 00:08:30.150
Ja. Niet hand. Dat is zo vet aan Whisper. Ja, en dat is eigenlijk dus ook inderdaad, uh, superhandig.

55
00:08:30.280 --> 00:08:42.330
Maar wat, wat onderzoekers nu dus ontdekt hebben is dat in, maar, nou ja, er zijn verschillende onderzoeken naar gedaan en het is een beetje moeilijk om precies te zeggen hoe vaak er nou hallucinaties optreden.

56
00:08:42.390 --> 00:08:51.630
Dus v-dat er verzonnen tekst komt die nooit is gezegd. Uh, maar er zijn verschillende onderzoeken en in één onderzoek was het acht van de tien transcripties.

57
00:08:51.670 --> 00:08:56.150
In een ander onderzoek was het meer dan de helft van alle transcripties die in het onderzoek zaten.

58
00:08:56.550 --> 00:09:06.250
En er is ook één onderzoek geweest waar van alle 26.000 transcripten in bijna elk transcript wel, uh, een hallucinatie zat. Natuurlijk in meerdere of mindere mate.

59
00:09:06.330 --> 00:09:16.050
Maar, uh, j-ja, d'r, d'r, er gaan, er gaan ook geruchten dat er w-ook wel racistische dingen voorkomen of dat er gewelddadig taalgebruik ontstaat.

60
00:09:16.130 --> 00:09:25.590
En op zich, kijk, ik gebruik dit soort dingen wel eens om een voorgesprek uit te tikken. Als journalist, en dan ben ik aan het bellen met iemand en dan neem je dat op en dan kun je dat.

61
00:09:25.650 --> 00:09:34.550
Ja, het is goed om je opname te bewaren. Ja, nou, dat is sowieso. Bij deze. Dat is sowieso, denk ik, een tip inderdaad. Uh, maar dat is dan nog als daar een foutje in zit, dat is niet zo heel erg.

62
00:09:34.610 --> 00:09:45.070
Maar wat ook naar voren is gekomen is dat ziekenhuizen steeds vaker gebruik maken van Whisper om doktersafspraken uit te typen, om gesprekken uit te werken.

63
00:09:45.170 --> 00:09:51.170
En ja, als AI dan met een gefantaseerde medische behandeling op de proppen komt, dan lijkt het me wel, ja, integendeel zeer gevaarlijker.

64
00:09:51.570 --> 00:10:03.340
Ja, en ik denk in dat opzicht dat, uh, het is gewoon goed om te weten dat de hallucinaties die je meemaakt als eindgebruiker in taalmodellen, uh, door te praten met ChatGPT. Whisper is daar een vorm van.

65
00:10:03.510 --> 00:10:08.090
Dus je mag ervan uitgaan dat er van alles bij gegokt wordt, uh, want het zijn gokjes.

66
00:10:08.210 --> 00:10:19.380
Uh, grappig voorbeeld is bijvoorbeeld als jij het geluid, uh, van een bel laat horen in een opname, of er zit het geluid van een bel in, dan hallucineert ie vaak het begin van een kerkdienst er achteraan qua woorden. O.

67
00:10:19.390 --> 00:10:24.940
Die nooit gezegd worden, omdat hij denkt: vaak na de bel wordt dit gezegd in wat ik heb gehoord. [lacht] Ja. In spiritu sancti.

68
00:10:25.030 --> 00:10:34.400
Ja, nou ja, dat, en wat ook heel veel gebeurt is, dat heb ik veel gezien in als ik Whisper toepas in software, is als hij aan het einde ineens zegt: click that bel icon and like to the subscribe, zeg maar. Ja.

69
00:10:34.410 --> 00:10:42.910
Het standaard YouTube-zinnetje zit ook heel diep in Whisper, omdat hij zoveel getraind is op die content. Ah. En daardoor dus ook heel vaak die zinnetjes hallucineert.

70
00:10:42.950 --> 00:10:52.440
Want dat is toch wat de meeste YouTubers toch gaan zeggen? Ja. Dat wordt dan helemaal niet gezegd, hè. Dus een hele zin wordt er gewoon bij gehallucineerd. Wauw. Dat is een soort ingesleten olifantenpaadje. Ja.

71
00:10:52.450 --> 00:10:54.130
Maar dan in de, uh, in het programma.

72
00:10:54.190 --> 00:11:09.450
Ja, dus ik denk dat de public service announcement aan de luisteraars vooral: weet dat Whisper werkt, zo goed werkt en dus ook zo slecht kan werken omdat het een taalmodel is en, uh, je er dus echt niet vanuit kan gaan dat hij één-op-één pakt wat er gezegd is.

73
00:11:09.510 --> 00:11:15.650
Nee. En ligt dus heel erg aan het doel. Want ik gebruik dus bijvoorbeeld vaak Whisper ook om een YouTube-video samen te vatten.

74
00:11:15.710 --> 00:11:27.850
Dus dan haal ik de audio er even doorheen, uh, als er nog geen originele transcript is, en dan laat ik hem samenvatten en dan heb je al iets minder kans op grote problemen. Uhm, ja, is dat zo?

75
00:11:27.910 --> 00:11:38.170
Ja, want je bedoel, dan pak je toch al een abstractie of een reductie van het hele verhaal. Mhm. Daar, daar heb ik wat minder last van tot nu toe, voor zover ik weet. Ja.

76
00:11:38.190 --> 00:11:48.250
Want het kan natuurlijk ook zo zijn dat er, ja, dingen in die samenvatting terechtkomen die gehallucineerd zijn. Nou ja, in die samenvatting, maar misschien, kijk, m-mensen, i-ik gebruik Whisper niet per se heel vaak.

77
00:11:48.470 --> 00:11:50.150
Uh, ik heb er wel eens mee geëxperimenteerd.

78
00:11:50.210 --> 00:11:57.260
Ik, ik kan me voorstellen dat er meer mensen zijn die het niet gebruiken, maar als je het even gewoon- Niet weten dat ze het gebruiken, want het wordt dus heel veel gebruikt in software waar je het helemaal niet weet.

79
00:11:57.260 --> 00:12:07.110
Dat denk ik dus wel, want als, als, als het zoveel dingen hallucineert, hoeveel is er dan misschien al i-in de samenleving waarvan je niet weet of het daadwerkelijk ooit wel een keer gezegd is, weet je wel.

80
00:12:07.330 --> 00:12:20.630
O-op grotere schaal. En als je dit doortrektOp een groter niveau. Is het nog steeds zorgelijk, denk jij? Of valt het eigenlijk wel mee? Nou ja, de kijk hoe meer AI gegenereerde slash AI geïnterpreteerde

81
00:12:21.550 --> 00:12:29.770
content er in het internet belandt en in boeken belandt en overal in de media. Ja, ja, dat is dat is wel, zeg maar. Dat noemen ze dan de poisoning the well.

82
00:12:29.830 --> 00:12:37.090
Dus zo staan er toch collect-collectieve waanideeën die dan ontstaan. Nou ja, dat is dat. Dat zou zijn als je er veel meer zinnen nog bij gaat verzinnen.

83
00:12:37.130 --> 00:12:45.050
En het is natuurlijk niet een statisch ding, hè, dus Whisper wordt nog steeds geüpdatet. Niet zo vaak als ik zou willen, maar er worden nog updates uitgebracht. Het ligt heel erg aan de taal, hè.

84
00:12:45.090 --> 00:12:50.670
Dus als in, in het Engels is Whisper veel, uh, meer accuraat dan dat hij in andere talen is, zoals Nederlands. Dat min.

85
00:12:50.700 --> 00:12:57.870
We staan best wel hoog trouwens in die lijst, maar niet op, uh, nummer drie, uh, van, uh, goede talen, want Whisper wordt wel getest, hè, buiten dit onderzoek ook.

86
00:12:57.880 --> 00:13:08.330
Ik bedoel, iedere keer als er een nieuwe versie uitkomt heb je natuurlijk een corpus aan tekst waar je van weet dit is de, dit is de door mensen opgeschreven trans, het door mensen opgeschreven transcript en die kan je er natuurlijk naast leggen dan, hè.

87
00:13:08.390 --> 00:13:18.910
Dus de, en dat is, daar heeft nooit 100% gestaan. Ja, oké. Nou, uhm, op naar een psychotische samenleving zou ik zeggen. [muziek] Nog meer OpenAI nieuws.

88
00:13:19.050 --> 00:13:28.410
Uhm, ja, de avonturen van OpenAI en de chipfabriek noem ik dit, want AI wil, uh, zelf chips gaan bouwen. Dat was al bekend, maar hoe? Daarover is nu meer duidelijkheid.

89
00:13:28.450 --> 00:13:41.810
Het, het ontwikkelt momenteel zijn eerste op maat gemaakte halfgeleider. En, uh, ja, het had al een beetje dus de opties verkend om zelf hele chipfabrieken te gaan bouwen, maar dat lijkt nu toch een beetje van de baan.

90
00:13:41.850 --> 00:13:48.870
Het is nu vooral dus van plan om strategisch te gaan samenwerken met andere grote, ja, chipmakers zoals TSMC en Broadcom.

91
00:13:49.570 --> 00:14:00.010
En er is al een, naar, vanuit een team samengesteld om een, een AI-chip te gaan ontwikkelen die bedoeld is voor 2026 dat we daarmee gaan werken. En nou ja, dat. En het breidt ook nog zijn chipleveranciersbeleid.

92
00:14:00.610 --> 00:14:09.430
Zijn, nee, zijn chipleveranciersbestand breidt het nog verder uit. Naast Nvidia gaat het nu ook chips gebruiken van Advanced Micro Devices, oftewel AMD.

93
00:14:10.530 --> 00:14:18.570
Ja, ik dacht altijd dat OpenAI zich vo-vooral bezighield met het ontwikkelen van de allerbeste taalmodellen, maar ze richten zich dus ook heel duidelijk hier op de hardware wietse.

94
00:14:18.610 --> 00:14:30.230
Ja, en die zijn, die zijn, uhm, onlosmakelijk aan elkaar verbonden. Uhm, waar we het ook straks wat meer over gaan hebben natuurlijk is de duurzaamheid en het energie, dus energiegebruik van al die hardware. Ja.

95
00:14:30.370 --> 00:14:40.730
Uhm, het is nu zo dat die datacentra gevuld zijn met, uh, GPU's, oftewel, uh, processors bedoeld om op te gamen eigenlijk. Uh, gaming, uh, processoren. Ja.

96
00:14:40.810 --> 00:14:51.610
En, uh, die gebruiken ontzettend veel energie en zijn niet, uh, gebouwd specifiek voor de wiskundige calculaties die achter de taalmodellen en andere generatieve algoritmen zitten.

97
00:14:52.110 --> 00:15:02.050
En dat zorgt ervoor dat het niet optimaal is. Het is niet efficiënt. Het is, uh, je, je gebruikt best wel een zwaar middel waarvan je een groot deel niet nodig hebt om berekeningen uit te voeren.

98
00:15:02.730 --> 00:15:12.450
Uh, dus zijn er al meerdere partijen die, uhm ja, purpose built, uh, chips hebben ontwikkeld die alleen de wiskunde doen die nodig is voor bijvoorbeeld, uh, taalmodellen.

99
00:15:13.050 --> 00:15:22.630
En dat is iets wat natuurlijk voor OpenAI, die en de algoritmen zou maken, maakt en dan ook nog de chips gaat maken een hele goede keuze. Het is iets wat Apple bijvoorbeeld ook al jaren doet.

100
00:15:23.170 --> 00:15:27.030
Apple ontwikkelt ook zelf chips. Ja. Wel, het is niet vanaf de grond, hè.

101
00:15:27.070 --> 00:15:36.870
Ze hebben een licentie op de ARM-chips genomen, maar, uh, er zitten optimalisaties, hele specifieke optimalisaties die heel goed passen bij wat er op een iPhone moet gebeuren.

102
00:15:37.150 --> 00:15:43.230
Als het bijvoorbeeld gaat om hoe snel, uh, die reageert op jouw vinger en hoe mooi de animaties en vloeiend de animaties zijn.

103
00:15:43.270 --> 00:15:52.650
Dat, dat gaat best wel verticaal geïntegreerd, zoals dat heet, dus van boven helemaal naar beneden. Ja. Is er, zijn er teams die daar over nadenken en het optimaliseren op hardwareniveau.

104
00:15:53.290 --> 00:16:01.510
En nu zijn het nog eigenlijk, uh, GPU's die je ook zo praktisch dezelfde chip zou kunnen gebruiken in een gameconsole om een computerspel op te spelen.

105
00:16:02.070 --> 00:16:09.290
Als je natuurlijk gaat zeggen wat nou als we alles eraf halen wat niet nodig is en alleen overhouden wat wel nodig is, dan heb je een enorme efficiencyslag.

106
00:16:09.810 --> 00:16:14.070
En je wil natuurlijk niet alleen maar afhankelijk zijn van Nvidia om al je chips te moeten kopen.

107
00:16:14.090 --> 00:16:23.410
Dus het is, het heeft meerdere redenen waarom het belangrijk is voor AI-bedrijven om ook op hardwareniveau een spel mee te spelen. Ja, dan vraag ik jou: wat zou Nvidia daar dan van vinden?

108
00:16:23.430 --> 00:16:30.650
Want eigenlijk ben je dus eerst een klant en nu begin je je bijna een beetje te positioneren als concurrent. Of moeten we dat anders zien?

109
00:16:30.830 --> 00:16:39.850
Ja, maar ik denk dat, dat is natuurlijk hetzelfde op het moment dat Microsoft in GitHub ineens andere partners gaat inbouwen. Uh, de, er is geen exclusiviteit. Nu is er een exclusiviteit voor Nvidia.

110
00:16:39.930 --> 00:16:44.090
Nagenoeg omdat ze nou eenmaal de enige zijn die de chips nu kunnen maken op dat level.

111
00:16:44.120 --> 00:16:52.550
Maar ik denk ook dat ze bij Nvidia niet stilzitten en waarschijnlijk ook chips zullen gaan maken die niet per se ook geschikt zijn om in gameconsoles te stoppen, hè. Ja.

112
00:16:52.590 --> 00:17:00.010
De zogenaamde TPU's, dus de Tensor Processing Units die dus echt gemaakt zijn voor het rekenwerk wat nodig is voor, voor de generatieve AI.

113
00:17:00.570 --> 00:17:08.710
Het, ja, het zou me niet verbazen, uh, als Nvidia ook veel specifiekere chips gaat maken, dus het is een leuke race. Een leuke race. Zeker. En heel normaal eigenlijk.

114
00:17:08.790 --> 00:17:18.189
Ja, en, en OpenAI weet natuurlijk zelf het best wat ze nodig hebben, hè. Ja, en daar kunnen ze nu precies voor zorgen. [muziek] Laatste onderwerp van het nieuws: watermerken voor AI.

115
00:17:18.210 --> 00:17:27.990
We hebben natuurlijk al, het wordt steeds moeilijker om, ja, de echte content van de neppe content. Uh, het begint steeds echter te lijken allemaal. Dus ja, hoe ga je dat nog van elkaar onderscheiden?

116
00:17:29.030 --> 00:17:38.410
Wij constateren hier ook eigenlijk keer op keer dat het, uh, soms gewoon bijna niet meer te doen is. En wat ze dus bij Google DeepMind hebben gedaan. Ze hebben daar een, een oplossing voor bedacht.

117
00:17:38.770 --> 00:17:48.550
Ze presenteren het in ieder geval zelf heel erg als oplossing. Een label voor AI gerege-AI-gegenereerde content en het, het heet SynthID en, nou ja, dat werkt als een soort watermerk.

118
00:17:48.600 --> 00:17:58.610
Het is, voor mensen is het niet te zien. En wat belangrijk is natuurlijk, is om te zeggen dat watermerk op afbeeldingen zetten bijvoorbeeld is niet zo heel erg spannend. Het gaat er vooral om watermerk op tekst.

119
00:17:59.090 --> 00:18:10.230
Dat is zo revolutionair hieraan. Ja, en niet alleen tekst, maar ook op, uhm, nou ja, bewegende beelden en in muziek. Nee, dus het is- Dus niet alleen op foto's, maar echt op, op eigenlijk alle soorten AI.

120
00:18:10.250 --> 00:18:24.458
Het is in de breedte een watermerk, maar ik denk dat wat het meest indrukwekkende is of interessante is, want ik heb het hier gekscherend over gehad een aantal podcast geleden, uh, van: er zal toch een manierZe zouden toch op een gegeven moment een manier uitvinden om tekst te watermerken?

121
00:18:24.538 --> 00:18:36.618
Want voor jouw beeld, die andere media, audio, video en afbeeldingen, daar bestaan al watermerktechnieken voor. Uh die zijn al hartstikke oud, want het is zoiets rijks, daar kan je super makkelijk iets in wegverstoppen.

122
00:18:37.198 --> 00:18:46.118
Maar een stuk tekst, waar ga je het verstoppen dan? In de spaties tussen de— snap je wat ik bedoel? Dit is veel- Zonder de tekst aan te passen ook inderdaad. Je zou er een soort Trojan horse in kunnen stoppen.

123
00:18:46.158 --> 00:18:51.198
Hoe noemen ze dat ook alweer? Gewoon een soort zinnetje waaraan je kan ontdekken dat- Ja, maar goed, dan zou je dat zinnetje- Maar dan zou je dat zien inderdaad.

124
00:18:51.218 --> 00:18:56.638
En dus, uh, dit is dus voor mensen niet te zien, maar voor machines wel te detecteren. En hoe werkt dat dus bij tekst?

125
00:18:57.058 --> 00:19:04.198
Ja, het, het staat uitgelegd als een soort van, het speelt met de woordkeuzekansen, maar kan jij me hier beter bij uitleggen hoe dat werkt? Ja, nee.

126
00:19:04.318 --> 00:19:12.858
Kijk, nu, we hebben het, uh, over plagiaatcontrole gehad en eigenlijk dat dat tot nu toe niet lijkt te werken in een eerdere aflevering. Hè, dus wat houdt het in?

127
00:19:13.358 --> 00:19:21.258
Een stude-- je pakt het werk van een student van tien jaar geleden, toen er nog geen AI was. Die gooi je door een AI-plagiaatchecker en die gaat zeggen: dit is AI, terwijl dat was het toen helemaal nog niet.

128
00:19:21.278 --> 00:19:32.018
Nou, dan weet je dat die software onzin is. Uh, het is niet zo dat het helemaal niks pakt trouwens, hè, want ChatGPT schrijft en Claude ook wel een beetje in een, in een bepaalde manier die je kan ontdekken.

129
00:19:32.278 --> 00:19:39.398
Maar door wat slim prompten kan je dat patroon ook weer, uh, aanpassen. Dus tot nu toe is dat kat-en-muisspel, uh, gewonnen door de muis. Als in:

130
00:19:40.598 --> 00:19:48.398
ChatGPT of taalmodelgegenereerde tekst detecteren op een manier dat je iemand er echt, uh, voor naar huis kan sturen als student is er nu niet.

131
00:19:48.478 --> 00:19:54.278
In ieder geval, ik weet daar niet van en de onderzoeken wijzen ook uit dat dat niet kan. Het gebeurt soms wel. Als je die-- zeker.

132
00:19:54.558 --> 00:20:02.118
Als jij die teksten daadwerkelijk, uh, bewust gaat genereren zodat ze herkend kunnen worden, wat hier eigenlijk het verhaal is. Dat is een ander verhaal.

133
00:20:02.178 --> 00:20:17.478
Je moet je voorstellen dat bij het kiezen van ieder volgend woord of ieder volgend stukje van een woord heb je een bepaalde kansberekening en wordt daar, uh, niet enkel gekozen voor het meest logische woord, of in ieder geval het, uhm, woord wat het statistisch meest logische woord is.

134
00:20:17.618 --> 00:20:21.498
Er worden ook, uh, ja, een soort creativiteitssprongetjes gemaakt.

135
00:20:21.558 --> 00:20:28.668
Ja, je hebt een temperatuurvariabel wanneer je tekst aanmaakt en als je dat temperatuurvariabel heel erg hoog zet, dan gaat hij echt hele interessante sprongetjes maken.

136
00:20:28.668 --> 00:20:37.798
Incredible bijvoorbeeld in plaats van it's, it's good. Ja, maar dan in, met temperatuur heel hoog staat daar gewoon ineens Volkswagen Golf. Als in: gaat nergens meer over, zo hoog gaat.

137
00:20:38.078 --> 00:20:53.398
Maar het is natuurlijk evolutionair als je, als je het met evolutie vergelijkt, heel interessant dat ie constant laffe gokjes maakt en sporadisch hele grote gokjes maakt, want dan gaat zo'n gedicht of een, of een boekverslag of een samenvatting ineens even een andere kant op.

138
00:20:53.838 --> 00:20:59.238
Uh, dat, dat maakt het natuurlijk een veel creatievere schrijver van AI-taalmodellen. Maar goed,

139
00:21:00.378 --> 00:21:20.398
als je die, uh, distributie van kansen gaat sturen, uh, en daar eigenlijk een, uh, ja, een soort signature style, dus, dus een soort handtekening in verwerkt waardoor een ander algoritme die daar specifiek voor ontworpen is, kan zeggen: hé, maar wacht even, die gokjes die daar gemaakt worden, die worden gemaakt op een bepa-- in een bepaald patroon.

140
00:21:20.628 --> 00:21:29.178
Hé, dit is een AI-tekst die ook aan mij wil laten weten dat ie een AI-tekst is, want dat hebben we zo afgesproken. Maar zijn er niet ontelbaar veel patronen te bedenken?

141
00:21:29.338 --> 00:21:38.058
Ik, ik kan me zo moeilijk voorstellen dat je— er zijn zoveel keuzes te maken dat je toch oneindig veel soorten verschillende patronen kan laten ontstaan.

142
00:21:38.118 --> 00:21:45.398
Nee, maar dat, ik bedoel, dat is dus, uh, het, het idee is natuurlijk wel dat het aan twee kanten, uhm, afgesproken moet zijn, hè.

143
00:21:45.738 --> 00:21:58.378
Dus de taalmodelmakers die kiezen ervoor om een bepaalde, uh, signatuur, signatuur toe te voegen aan die kansen en publiceren dan ook die signatuur.

144
00:21:58.578 --> 00:22:09.458
En dan kan een andere partij, en waarschijnlijk brengen ze het tegelijk uit, zeggen: hier heb je weer iets wat dat kan oppakken. Maar, ja, dat is dan een kwestie van een, uh, ander taalmodel kiezen die dat niet doet.

145
00:22:10.098 --> 00:22:17.738
Hè, voor de duidelijkheid: dit is niet ineens nu opgelost. Nee. Wat Google zegt is: we open sourcen dit idee. Ja. De specificatie ervan.

146
00:22:17.798 --> 00:22:25.818
En we roepen eigenlijk al onze partners slash concurrenten op om het ook te integreren. Ja. En dan krijg je een gesloten systeem. Want alleen dan werkt het.

147
00:22:25.858 --> 00:22:35.078
Want ik kan nog steeds met— want ik zou zeggen van: ja, juist nu, bijvoorbeeld met, uh, met de verkiezingen in de VS, dan wil je juist goed kunnen onderscheiden wat nepnieuws is en wat niet.

148
00:22:35.108 --> 00:22:43.878
Maar ja, die mensen die dat nepnieuws maken, die willen helemaal niet, of, of de AI die dat nepnieuws maakt, die wil niet ontmaskerd worden als AI. Die wil juist echt lijken.

149
00:22:44.018 --> 00:22:53.038
Uiteindelijk krijg je een situatie zoals met doping, hè, dat je je plasje moet inleveren en dat dan zeven jaar later dat plasje nog getest wordt op zoek naar medicijnen die we nu wel kennen, maar toen nog niet.

150
00:22:53.078 --> 00:23:04.878
En dat je dan alsnog je prijs moet inleveren. Ja. Dat je natuurlijk straks krijgt dat jij gebruik gaat maken van een AI-dienst die zegt dat ze niet meedoen, uh, met het, uh, ja, die fingerprint erin stoppen, zeg maar.

151
00:23:04.938 --> 00:23:14.678
Dat watermerk wordt er niet ingestopt. Ja. Maar dan ontwikkelen we weer een, we als in de hele community, een algoritme die, die toch kan herkennen zonder— dus, ik bedoel, als je

152
00:23:15.598 --> 00:23:22.498
luistert nu als student en zoiets hebt van: nou, ik ga dan wel op zoek naar een algoritme waar het niet in zit of zo, dat raad ik echt af, want het is gewoon een kwestie van tijd.

153
00:23:22.998 --> 00:23:31.578
Doe jij je tekst dan statisch, hè, vanaf dat moment en dan begint de race tegen de klok voordat er iets ontstaat wat met redelijke accuratie het wel kan ontdekken. Ja. Dus, maar goed.

154
00:23:31.778 --> 00:23:36.798
Krijg je met terugwerkende kracht word je diploma ingenomen. Nou ja, ik wil je niet bang maken, maar zoiets dan, ja. Ja.

155
00:23:36.858 --> 00:23:44.298
En, maar het, het interessante hier is dus wel, en ik raad de mensen aan die dit interessant, uh, of, hoe zeg je dat, nieuwsgierig zijn naar: hoe werkt dit dan?

156
00:23:44.718 --> 00:23:57.258
Ze hebben best wel, uh, in meerdere technieken om tekst toch te laten bevatten, uh, dat het door AI gemaakt is, gecombineerd- Ja.

157
00:23:57.478 --> 00:24:05.118
Uh, om uiteindelijk, wat ik dus niet had verwacht, want ik zat dus grapjes te maken van: o, moet je dan iedere drie woorden met een D beginnen of [lacht]

158
00:24:05.618 --> 00:24:08.898
extra spaties of een punt zetten op een gekke plek wat iedereen natuurlijk ziet.

159
00:24:09.398 --> 00:24:20.378
Dit, dit kan natuurlijk veel gaver, omdat als je eenmaal een serieus stuk tekst hebt, kan je daar van alles in verstoppen door woordvolgordes, woordkeuzes, bijvoeglijk naamwoorden waar ik helemaal niet bij stil had gestaan.

160
00:24:20.438 --> 00:24:24.698
En dus ik vind het, uh, ja, ik laat even in het midden of ik het een goede ontwikkeling vind.

161
00:24:25.018 --> 00:24:41.354
Uh, richting fake news, ja, richting alle studenten moeten constant in de gaten gehouden worden door enge algoritmes, nee, zoiets.Straks gaan we naar het hoofdonderwerp: kunnen we ooit genoeg groene energie produceren om onze hongerige taalmodellen en AI-datacentra mee te voeden?

162
00:24:41.994 --> 00:24:55.234
Maar eerst even de tip van de week. Ja, uh, die, die delen we altijd in onze nieuwsbrief, uh, AI Report. En, uh, deze week, is wel leuk, duiken we in de wereld van AI en gezondheid en in het bijzonder sport.

163
00:24:55.854 --> 00:25:05.794
Uhm, Impact, dat is I M P A K T. Dat is een personal trainer, maar dan AI. Wietse, ik zie jou helemaal oplichten, want sport, daar ga jij natuurlijk helemaal van aan.

164
00:25:05.914 --> 00:25:16.874
[lacht] Nee, dat is, uhm, het, het is een app en, uh, dit werkt echt als een personal trainer. Je ge-- die, die app geeft jou opdrachten. Bijvoorbeeld, ik heb even gekeken, nou, core cardio.

165
00:25:16.914 --> 00:25:28.354
Dan zegt die app tegen jou: nou, doe nu cross punches twaalf keer, standing kicks tien keer, pauze tien seconden, sit-ups tien keer, planken, dan weer sit-ups. Nou, enzovoort, enzover, enzovoort.

166
00:25:28.394 --> 00:25:32.774
Maar zegt ie het echt of krijg je tekst in beeld? Nee, er komt tekst in beeld. Lame. Best wel lame.

167
00:25:32.834 --> 00:25:43.814
Maar wat, wat dit dus wel echt meer personal trainer maakt dan alleen iets wat opdrachten geeft, is dat het ook je bewegingen kan analyseren. Oké. Hoe doet ie dat? Je moet jezelf filmen de hele tijd.

168
00:25:44.254 --> 00:25:49.494
Dus hij registreert hoe jij je beweegt en dan heeft hij van die punten. In je knie zit een gewricht en in je heup, weet je wel.

169
00:25:49.524 --> 00:25:57.314
En dan gaat hij die punten met elkaar vergelijken en dan kan hij precies zien of je houding klopt. Dus je krijgt feedback op je vorm en dat is best wel belangrijk.

170
00:25:57.394 --> 00:26:07.314
Ik heb laatst voor het eerst iets met gewichten gedaan namelijk. Dat is, nou, ook niet mijn favoriete hobby, iets in de sportschool doen met gewichten, maar ik ging dus deadliften. Zegt jou natuurlijk niets. Of wel?

171
00:26:07.654 --> 00:26:11.394
Waarom denk jij dat ik niet sport? Omdat je me dat verteld hebt. Nee, ik sport helemaal niet. Nee, daarom.

172
00:26:12.094 --> 00:26:18.134
Uhm, maar dat sluit best wel aan bij je houding, want als je even verkeerd staat, dan krijg je last van je rug of dan springt het erin. Voor je het weet heb je een blessure.

173
00:26:18.834 --> 00:26:29.754
Dus, uhm, ja, iemand die dan gewoon goed meekijkt met jouw houding en zegt wat je wel niet moet doen. Ja, dat is toch wel, dat vind ik wel een, een vooruitgang. Oké. Als je het zou willen gebruiken.

174
00:26:29.794 --> 00:26:36.834
En ja, wie, wie wil wat? En natuurlijk die, die personal trainer is altijd beschikbaar. Of je het nou drie uur 's nachts wil doen of, uh, midden op de dag.

175
00:26:37.354 --> 00:26:46.334
Ja, ik dacht misschien word jij er wel enthousiast van als je er een AI-sausje overheen gooit met dat sporten. Nee, man. Nee, nog steeds niet, hè? Nou, uh, in de nieuwsbrief kun je er toch alles over lezen als je wil.

176
00:26:46.374 --> 00:26:55.514
Ook nog andere tips over gezondheid, zoals een, uh, een voedingsapp die je calorieën telt zonder dat je ze handmatig hoeft in te voeren. Ja. Moet je dan foto's maken van je eten of zo?

177
00:26:55.654 --> 00:27:04.134
Ja, foto maken van je eten inderdaad. Ja, dat maakt dan, d-, iets makkelijker om je calorieën te tellen. Voor als je dat mocht willen. Dank je wel. Je gaat er helemaal van. Ik zie het.

178
00:27:04.534 --> 00:27:14.754
Wil je meer weten over, uh, ja, wat, wa, hoe je, hoe je AI kan gebruiken in je werk of in je, je gewoon leven? Schrijf je dan vooral in voor die nieuwsbrief: AI Report punt email.

179
00:27:14.814 --> 00:27:24.774
[muziek] Ja, we zitten midden in een, uh, een transitie eigenlijk naar groene energie. En, uh, tegelijkertijd vindt er, nou ja, de AI-revolutie ongeveer plaats waar we bij staan.

180
00:27:25.214 --> 00:27:36.314
En dat is allemaal mooi, maar dat lijkt nogal wat energie, ja, te verbruiken. Dus wat, dat roept eigenlijk meteen de vraag op: kunnen we ooit nog genoeg groene energie produceren om al die datacentra te laten draaien?

181
00:27:36.494 --> 00:27:40.174
Dat is in ieder geval iets wat ik mij persoonlijk een beetje afvraag. Wietse, ik zie jou een beetje lachen.

182
00:27:40.234 --> 00:27:47.774
Nee, ik ben aan het glimlachen, omdat ik denk: nu gaan we het eindelijk over dit onderwerp hebben wat ik al zo lang voor me uitschuif. Maar ja. Ja, en wat iedereen al zo lang aan jou vraagt.

183
00:27:47.794 --> 00:27:52.354
Nou, maar we ko-, we gaan, we draaien nu toch, uh, op verzoek? Ja, ik doe een disclaimernetje van tevoren.

184
00:27:52.574 --> 00:28:01.854
Dit is echt een groot onderwerp en een complex onderwerp en het gaat ons nooit lukken om in korte tijd dit de justice te doen. Maar we gaan toch proberen om duurzaamheid een keer aan te raken in Poki.

185
00:28:02.074 --> 00:28:10.574
Ja, en dat doen we met Duuc Baeten, adviseur Responsible AI en, uh, hij werkt bij SURF, een ICT-coöperatie van Nederlandse onderwijs- en onderzoeksinstellingen.

186
00:28:11.414 --> 00:28:21.614
En hij weet, ja, veel van dit soort complexe innovatievraagstukken. En, ja. Oh ja, Duuc hoi, hallo. Hallo. Hallo! Leuk dat je er bent. Fijn dat je met ons hierover wil praten.

187
00:28:21.634 --> 00:28:28.814
Want ja, Wietse zegt het al, dat is nogal een complex onderwerp. Nou ja, jij weet veel van complexe innovatievraagstukken.

188
00:28:28.914 --> 00:28:39.854
De, ja, wat, uh, zet als eerste een, een eerste teen in het water van dit grote complexe onderwerp. Wat is jouw gevoel hierbij? Nou, p-precies wat je zegt, het is complex.

189
00:28:39.874 --> 00:28:52.494
Toen, uh, de vraag kwam: kan je hier wat binnen Poki over vertellen? Ben ik eigenlijk ook even bij collega's gaan aankloppen. En, uhm, wie, wie binnen Nederland weet hier nou het meeste van?

190
00:28:52.533 --> 00:29:05.214
Wie moet je, wie moet je eigenlijk hebben voor Poki die niet Duuc is? En, uhm, we kwamen een heleboel namen, uh, uh, uh, passeerden de revue, maar het is zo complex dat je eigenlijk, uhm- Ja.

191
00:29:05.274 --> 00:29:13.654
Op elk domein kan je ontzettend diep gaan. Je kan je afvragen van: hoeveel kost het nou aan energie om een, uh, uh, een, een, een query binnen ChatGPT te doen?

192
00:29:13.754 --> 00:29:26.974
Hoeveel, uh, prioriteit wil je, uh, ge-, uh, geven aan het energienet, aan datacentra? Uhm, uh, wat vind je van de impact van het bouwen van, uh, de compute die nodig is voor AI-systemen? Uhm. Ja.

193
00:29:27.114 --> 00:29:39.794
Uhm, f-, hè, zien we duurzaamheid alleen als ecologische duurzaamheid? Of hoort daar ook, uh, uhm, hè, duurzame relaties en sociale, uh, verhoudingen binnen de, nou ja, soort van globale ecosysteem bij ja of nee? Ja.

194
00:29:39.934 --> 00:29:41.814
Kan je je ook nog afvragen inderdaad, ja.

195
00:29:41.854 --> 00:29:52.024
En is het dan zo, Duuc, want ik, uh, dit is al fantastisch hoe jij even schetst hoe complex dit is, want dit is letterlijk wat we even wilden horen, zodat de luisteraars ook doorhebben: we kunnen heel veel paadjes gaan bewandelen met elkaar.

196
00:29:52.274 --> 00:30:01.794
Concreet is het zo dat, uhm, ik hoor allerlei cijfers en ik zie allerlei cijfers langskomen van één tot 2% is de huidige, uh, energievraag rondom datacentra.

197
00:30:01.874 --> 00:30:15.014
Dat gaat verdubbelen naar 4 tot 5% en dat is misschien wel in 2030 al 10%. Uhm. Wereldwijd, hè? Ja, wereldwijd. Dat is best wel substantieel, want 1% dacht ik nog van: mwah, dat valt allemaal wel mee.

198
00:30:15.054 --> 00:30:25.634
Maar als we richting 10% gaan snap ik wel dat er een discussie is nu. Hoe, hoe kan jij inschatten, Duuc, uhm, is dat op, uh, onderzoek gebaseerd of wordt dit, is dit nattevingerwerk? Wat hoor jij om je heen?

199
00:30:26.794 --> 00:30:33.894
Uhm, nou, ik denk dat het allemaal in zekere mate nattevingerwerk is. Die, uh, hè, is dat het 10 tot, uh, uh, volgens mij 10 tot 20% of zo?

200
00:30:33.934 --> 00:30:45.698
Dat zou volgens mij het tienvoudige zijn van de uitstoot die we, die de vliegindustrie heeft, hè. Om maar even een comparison, uh, te doen. Ja.Uiteindelijk als je een, uhm,

201
00:30:46.838 --> 00:30:56.598
alle AI-systemen draaien ergens op hardware, hè, die draaien ergens op een, op een apparaatje. Dat is niet magisch, uh, dat heeft een plek in de, de wereld. Dat komt ergens vandaan, hè.

202
00:30:56.618 --> 00:31:05.698
Dus als je het versimpelt kan je het een beetje zien als: je hebt dat ding zelf en de energie die het verbruikt. Allebei hebben ze een impact, uh, op de wereld en daar proberen we wat mee te doen.

203
00:31:05.758 --> 00:31:16.158
Als we het over dit soort percentages hebben. Kijk, uhm, als 10% van de energie, uh, van de wereld gaat naar het oplossen van wereldproblematiek en heel goed werkt, ja, dan is dat misschien helemaal niet zo'n probleem.

204
00:31:16.818 --> 00:31:24.517
Als 10% van de energie in de wereld gaat aan, uh, opgaat aan, uh, klik farms of, uh, dropshipping. Misschien vinden we dat wat minder gunstig.

205
00:31:24.558 --> 00:31:35.438
Dus, uh, de cijfers zijn denk ik wel interessant om te laten zien, uh, dat dit een, een, een thema urgent thema is om over na te denken. Uhm, maar, uhm,

206
00:31:36.638 --> 00:31:45.138
ze zeggen nog niet alles, want de cijfers staan altijd in rela-relatie tot wat we eigenlijk proberen te bereiken met het uitgeven van die energie, dat energiebudget, om het zo maar te zeggen.

207
00:31:45.168 --> 00:31:54.378
Ja, je ze-- je zegt eigenlijk van: inderdaad, je zou kunnen constateren dat, uh, als het 10% gaat betekenen van de wereldwijde vraag naar, uh, naar energie die er nodig is om er in te, in te stoppen.

208
00:31:54.388 --> 00:32:05.538
Maar als, het slurpt energie. Maar als dat aangewend wordt voor de juiste middelen, dan is het misschien wel weer dat we denken van: ja, nou, dat is misschien wel gerechtvaardigd, dat is misschien zelfs wel, wel goed.

209
00:32:05.618 --> 00:32:14.478
Kan dat zijn. Ja, en, en, en ik denk dat we die vraag, dus die vraag die jij nu stelt, Milou, die is heel moeilijk te beantwoorden, want wie mag dat dan, uh, bepalen? Ja.

210
00:32:14.838 --> 00:32:26.458
Uhm, dus, uh, één ding is natuurlijk, uh, wat energie-efficiëntie ook met zich meebrengt, is dat je ook een discussie hebt over wie kan bepaalde, uh, hè, dus als je, z-, gaat uitrekenen wat kost bijvoorbeeld één prompt aan energie?

211
00:32:26.958 --> 00:32:34.458
Nou, daar zou, dat, daar zou je op kunnen concurreren als alle providers wereldwijd. Zeg je: nou ja, bij ons kost een prompt het minste omdat we, uh, onze energiehuishouding helemaal op orde hebben.

212
00:32:35.318 --> 00:32:41.018
Uhm, dan heb je misschien op ecologisch vlak, uh, ineens een goed punt waarom dat duurzamer is.

213
00:32:41.378 --> 00:32:49.838
Uhm, uh, maar dat snijdt misschien met andere waardes over, uh, hè, een wereldwijde verdeling van macht, over, uh, digitale soevereiniteit. Uhm,

214
00:32:50.778 --> 00:32:57.498
dus, dus het maakt, dus, uh, energie is niet het end all antwoord waarop je kan berekenen of iets, uh, uh, wel of niet goed is.

215
00:32:57.898 --> 00:33:06.098
En ik denk dat wat jij nu zegt, hè, want de vragen die ik veel van mensen krijg is dat ze zeggen: ja, ik ben iemand die heel erg bezig is met mijn individuele voetafdruk en ik schaam me.

216
00:33:06.138 --> 00:33:13.458
Ik, ik heb vliegschaamte en nu heb ik ook ChatGPT-schaamte. Want als ik daar dan, ik heb dan allemaal artikelen gelezen en ik durf, durf bijna geen vragen meer te stellen aan ChatGPT.

217
00:33:13.838 --> 00:33:22.318
Ik zeg het half gekscherend, want deze vragen krijg ik wel echt. En, uhm, ik vind het wel, hoe denk jij dat het komt dat dit eerder minder een thema was?

218
00:33:22.338 --> 00:33:31.578
Want ik weet wel, ik heb wel eens mensen gehoord die zeiden: een mailtje versturen, een e-mail versturen kost zoveel, hè, dus er werd al gekeken wat is de CO-, CO₂-uitstoot van een mailtje versturen.

219
00:33:32.018 --> 00:33:44.738
Maar is het, is het sec hier dat het gewoon zoveel meer energiegebruik is dat het echt wel een onderwerp is? Wa-waarom AI nu zo in de schijnwerpers? Uhm, ik denk, uh, uh, drie redenen, hè.

220
00:33:44.758 --> 00:33:54.078
De, de, de, de druk van het klimaat is hoger geworden in de tussentijd. Hè, dus we, we, we voelen allemaal, of in ieder geval, ik voel zelf ook wel die, die, die spanning.

221
00:33:54.998 --> 00:34:04.198
Uhm, AI is natuurlijk nu het onderwerp, dus het onderwerp wil je het, het over hebben. Dus dat betekent als je je met duurzaamheid bezighoudt, dan ga je het ook hebben over AI en duurzaamheid.

222
00:34:04.238 --> 00:34:08.378
Want daar, uh, uh, daar kan je een podcast over vullen, uh, om het zo maar te zeggen.

223
00:34:09.218 --> 00:34:21.198
Uhm, uh, en als laatste, wat ik zelf heel interessant vind, is dat de, waarom, hiervoor hadden we het ook over AI en duurzaamheid, maar toen ging het vaak over AI-systemen die ergens bij een bedrijf draaiden en die daar compute gebruiken.

224
00:34:21.698 --> 00:34:24.898
Nu heb je ineens, uh, die slag naar de consumentenmarkt gemaakt.

225
00:34:25.038 --> 00:34:43.018
Uhm, uh, dus daar zie je, denk ik, als bijvoorbeeld organisaties, uhm, willen voldoen aan alle duurzaamheids, uh, reguleringen, dan moeten zij best wel veel reporten over de uitstoot die ze, uh, maken op allerlei verschillende manieren en ook de uitstoot van, van individuele, uhm, uh, uh, medewerkers, uh, tijdens hun werk.

226
00:34:43.098 --> 00:34:53.518
Uhm, en dan zie je ineens: ja, mensen die gaan ChatGPT gebruiken, al dan wel of niet met toestemming van hun, uh, baas. Uh, uh, ja, wie is er dan verantwoordelijk voor die uitstoot? Dat maakt het ook wel interessant.

227
00:34:53.798 --> 00:35:06.898
Ja, ja, zeker ook omdat het over zoveel mensen extra opeens gaat, hè. Ik heb ergens gelezen, dus één prompt, dat is min of meer gelijk aan een, een uur lang een la, een lamp aan hebben staan. Uh, dat is op, N is één.

228
00:35:06.958 --> 00:35:13.518
Natuurlijk niet zo interessant, maar als iedereen de hele dag allemaal lampen aan gaat zetten, dan wordt het natuurlijk wel een wat groter ding. Ja.

229
00:35:13.558 --> 00:35:25.038
Ja, en, en wat misschien wel interessant is, want, uhm, [lacht] we hadden het erover. Het is een complex thema, hè, dus je kan natuurlijk ook, uhm, het argument maken van, uh: stel dat ik ChatGPT gebruik.

230
00:35:25.138 --> 00:35:32.378
Nou, dat kost dan inderdaad, uh, nou, een, een, een lamp de hele dag aan aan energie, maar daardoor ben ik twee dagen eerder klaar met, uh, mijn werk.

231
00:35:32.418 --> 00:35:37.778
Dus ik heb, uh, twee dagen aan uitstoot besparen, v-, bespaard van andere dingen.

232
00:35:37.898 --> 00:35:46.138
Hier word ik voor mijzelf altijd heel moeilijk, omdat ik dan de, ja, de, de soort van cynicus in mij of criticus, ik weet even niet welk stukje van mijn brein dat is.

233
00:35:46.198 --> 00:35:58.118
Maar dan denk ik: ja, uh, die GPU's zitten ook in PlayStation 5 en in Xbox One, Series One. Die Xboxen staan ook de hele dag aan om daarop games te doen. Kan je zeggen: ja, dat staat niet in een datacenter, so what?

234
00:35:58.138 --> 00:36:05.958
Het is dezelfde grid, dus dat is echt onzin. Je verplaatst het energieprobleem alleen maar. Ja. Hoeveel procent van de wereld gaat nu aan game consoles en computer gaming?

235
00:36:06.058 --> 00:36:14.198
Niet, niet om te zeggen, uhm, uh, en daarom moeten we niet over het AI-thema praten, want dat is, dat is een soort van valse, uh, logica die ik dan nu gebruik, hè.

236
00:36:14.278 --> 00:36:18.158
Van: nou ja, als A slecht is en B ook, dan moeten we ook, uh, hoeven we niet over B te praten.

237
00:36:18.558 --> 00:36:35.258
Maar mijn, ik, ik vind het interessant dat, natuurlijk, als we bezig zijn met vliegen, hè, de, de vliegindustrie waar je het net over had en, uh, de datacentra die specifiek dan ook nog eens grotendeels gebruikt worden voor AI, nemen eigenlijk een gelijke footprint in op een gegeven moment en gaan daar zelfs voorbij.

238
00:36:35.738 --> 00:36:44.858
Dan is dat binnen die taartgrafiek, hè, binnen die chart is dat een thema, uh, als het om duurzaamheid gaat. Net als dat de vliegindustrie dat is, dus die kan ik helemaal volgen.

239
00:36:45.438 --> 00:36:54.914
Ik vind het alleen welInteressant, uhm, ja, wat er dan gebeurt op het moment dat een deel van die compute niet in een datacenter gebeurt, maar op een device zelf.

240
00:36:55.014 --> 00:37:04.853
Hè, want dat is een idee wat Apple nu probeert, is dat een deel van de vraag beantwoord wordt door jouw telefoon zelf, die je dan moet opladen daarna. Want die, ik bedoel, het is, het is, je schuift hem weer op, hè.

241
00:37:04.914 --> 00:37:15.794
Nog steeds energie, ja. En ik denk dus: hoeveel van, uh, de mensheid willen wij, uh, augmenten met synthetische intelligentie? Om dat dan even AI zo te, te framen.

242
00:37:15.874 --> 00:37:26.714
En, uh, wat is het energieverbruik wat daar dan tegenover mag staan? Uh, want dat sluit aan op jouw punt. Als jij een dag eerder, uh, een dag niet hoeft te werken of een dag lang niet de warmtepomp hoeft aan te zetten.

243
00:37:26.754 --> 00:37:35.594
Slecht voorbeeld, want die draait vaak door. Maar laten we even zeggen: je cv-keteltje mag terug naar zeventien, uhm, omdat jij niet hoeft te zitten daar op kantoor, is ook weer, uh, waardevol.

244
00:37:35.634 --> 00:37:45.654
Dus dat is wel een, een soort, uh, calculatie die je zou moeten maken. Houdt de natuur zich, of de natuur, maar houden wij het allemaal op de wereld gewoon een beetje automatisch op die manier in balans uiteindelijk?

245
00:37:45.774 --> 00:37:58.244
Ja, ik bedoel, ja, voor mij, voor mij is, uh, zitten Duuk en ik een beetje te grinniken, wa-, o-omdat we dat, dat, uh, de aan de hoeveelheid uitstoot te zien niet. [lacht] Nee, die stijgt nog steeds, geloof ik.

246
00:37:58.254 --> 00:38:04.034
Ja, en die datacenters, ja, sorry Duuk. Ja, nee, het is natuurlijk zo'n klassiek probleem van iedereen wil uiteindelijk graag comfort.

247
00:38:04.214 --> 00:38:12.954
Die we, de, de, niemand, uh, niemand wil in zijn eigen, uh, uh, uhm, ja, budget snijden. Of dat nou vliegbudget is of energiebudget. Uhm,

248
00:38:13.994 --> 00:38:25.394
dat, dat idee van eindeloze groei waar AI ook zeker op gebaseerd is en onderdeel van is, is gewoon een heel moeilijk politiek systeem wat niet zo goed samengaat met, of niet zo makkelijk samengaat met duurzaamheid.

249
00:38:25.554 --> 00:38:35.914
Uhm, wat ik denk wel belangrijk is om, om nog even te benoemen is dat, dat, we hebben het de hele tijd over die energie, maar het is, het is meer dan energie. Uhm, het gaat ook over, uh, de apparaten zelf.

250
00:38:35.974 --> 00:38:44.034
Dus de, de, hè, de e-waste. Die heeft een enorme, uh, environmental impact. Uhm, ik heb een keer een, een, een soort van- Wat is e-waste, sorry?

251
00:38:44.174 --> 00:38:52.794
Uh, dus de, de, de, a-, het afval wat komt uit alle, alle, ja, digitale middelen. Dus jouw laptop die op een gegeven moment ergens verscheept wordt, uh. Oh ja.

252
00:38:52.854 --> 00:38:56.554
Hè, je, je hebt daar als bedrijf, heb je daar verantwoordelijkheid voor. Als eindgebruiker eigenlijk ook.

253
00:38:56.594 --> 00:39:03.534
Alleen uiteindelijk komt dat toch wel vaak ergens op een strand in Ghana gedumpt om, uh, uh, daar uit elkaar getrokken te worden door, uh, mensen.

254
00:39:03.594 --> 00:39:12.734
En het is ook nog maar de vraag natuurlijk als je een datacenter bouwt nu en er worden chips uitgevonden die tien keer zo efficiënt zijn. Dan gaat aan de ene kant de vlag uit, want tien keer zo weinig chips nodig.

255
00:39:12.814 --> 00:39:21.434
Aan de andere kant gaat het datacenter de prullenbak in. [lacht] Hè, dus het moet ergens allemaal weer heen. Dus, hè, dus dat is het afval. Ja, en, en je krijgt, hè, als je dus die soort van calculus doet.

256
00:39:21.494 --> 00:39:32.234
Ik heb wel eens een keer op de achterkant van een bierviltje lopen rekenen. Uh, uhm, uh, uh, als je, uhm, je uitstoot van energie hangt natuurlijk ook weer af van je energiebron.

257
00:39:32.774 --> 00:39:39.274
Dus als je zegt, uh, wij gebruiken water, uh, waterenergie, dus, uh, van waterkrachtcentrales, dat heeft een hele lage CO₂-uitstoot.

258
00:39:39.934 --> 00:39:46.514
Dan, uh, is het houden van een oude, uh, uh, computerinstallatie, uh, veel gunstiger, want die vergt wel veel meer energie.

259
00:39:47.134 --> 00:40:01.953
Alleen, uh, d-, het bouwen van een nieuw systeem, dus de impact van het maken van, uh, al die chips en het in een, uh, in een, uh, datacenter stoppen van die, al die chips is dan op een, v-, acht jaar of zo, uhm, veel meer dan de energie die je gebruikt voor het gebruik van het apparaat.

260
00:40:02.134 --> 00:40:10.034
Ja. Uhm, maar als je stiekem gewoon de energie gebruikt uit, uh, die hier uit de muur komt, om het zo maar te zeggen, uh, dan gaat het weer helemaal totaal niet op.

261
00:40:10.074 --> 00:40:21.594
Dus het, het wordt zo'n eindeloze calculus als je hier aan begint van: uh, wat is wel en wat is niet effectief? Uhm, ik denk dat waar veel mensen, uh, moeite mee hebben is, uh, de afweging: uhm, uhm,

262
00:40:22.554 --> 00:40:34.154
wanneer verbruik ik resources, op welke manier en waarvoor? Dus, uhm, heb ik een, uh, ChatGPT-prompt ingezet. Uh, echt omdat ik dacht: nou ja, dit, dit is iets wat ik anders niet kan oplossen.

263
00:40:34.574 --> 00:40:45.113
Dan zal iemand daar heel anders, uh, over voelen dan wanneer je een, uh, uh, prompt inzet om op een borrel allemaal gekke plaatjes te genereren van je nieuwste ideeën misschien. Uhm. Ja.

264
00:40:45.514 --> 00:40:50.734
Dus, jij, jij als adviseur Responsible AI zeg je eigenlijk ook: ga verantwoordelijk met je eigen prompts om.

265
00:40:52.234 --> 00:41:02.834
Ja, uh, dat, die, nou, die ruimte, die ruimte kan je als individu nemen, uhm, uh, zeker in je eigen persoonlijke leven. Ik denk in bijvoorbeeld werksfeer heeft een organisatie daar ook wat van te vinden.

266
00:41:03.594 --> 00:41:17.034
Uhm, een van de, omdat dit thema mij interesseert en ik, uh, er ook mee vastzit eigenlijk, uh, hebben we deze vraag ook nu uitstaan. Waarom zeg je vast? Uhm, omdat er niet, uh, er zijn niet hapklare standaardantwoorden.

267
00:41:17.314 --> 00:41:25.674
Er is niet één, uh, manier die het goed doet. Dus stel dat ik nu zou aanraden aan iedereen: gebruik, doe het gewoon niet. Ga gewoon niet met AI aan de slag, dan verbruik je die energie ook niet. Ja.

268
00:41:25.814 --> 00:41:38.094
Dan snappen jullie ook allemaal wel dat dat niet een wereld is waarin we als, uh, uh, als individuen, als organisaties of als land, uh, uhm, uhm, supersuccesvol kunnen zijn. Als je je nooit wil verhouden tot andere,

269
00:41:39.063 --> 00:41:44.574
uhm, activiteiten, kan je net zo goed in een kamertje de hele dag gaan zitten met de temperatuur op zeventien graden en vooral niet bewegen. Ja. Uhm,

270
00:41:46.054 --> 00:41:53.134
dus we willen ook niet naar een wereld waar iedereen zo weinig mogelijk resources probeert te gebruiken. Dat werkt ook niet namelijk, want mensen willen ook nog steeds vliegen en zo.

271
00:41:53.234 --> 00:41:55.934
Die willen helemaal niet snijden inderdaad, dat zei je ook al eerder, dus ja.

272
00:41:56.954 --> 00:42:05.114
Ja, dus je moet, je moet zoeken naar een, een, een soort van werkzame manier en ook waar verantwoordelijkheden tussen individuen en organisaties op een goede manier verdeeld zijn.

273
00:42:05.854 --> 00:42:19.614
Uhm, dus we hebben nu wat studenten van de opleiding Applied Ethics in Utrecht gevraagd om te kijken naar het vraagstuk: wat is nou, waar, hoe ligt nou de spanning in verantwoordelijkheid tussen een onderwijsinstelling en de studenten gaat om duurzaam gebruik van AI?

274
00:42:19.754 --> 00:42:25.774
Uhm, uhm, hè, als je als onderwijsinstelling zegt: ja, ga lekker, ga lekker aan de slag, ga dingen uitproberen.

275
00:42:26.434 --> 00:42:30.734
Uh, moet je dan zelf, moet je dan als instelling verantwoordelijkheid nemen voor die, voor die, uh, impact van die studenten?

276
00:42:30.814 --> 00:42:40.146
Of, uh, moeten studenten uit zichzelf bedenken: nou, ik ga alleen AI gebruiken als het echt nodig is. Uhm, ik denk dat we daar nog niet zo'n goed antwoord op hebben.En als je dan een beetje de toekomst inkijkt.

277
00:42:40.186 --> 00:42:44.146
Want, uh, ik denk dat dit thema nu op de agenda staat.

278
00:42:44.246 --> 00:42:56.466
Een beetje, maar, uh, dat naarmate die, uh, dat stukje in die taart groeit, hè, in die wereldwijde CO₂-uitstoot taart, dan gaat dit onderwerp op steeds meer agenda's komen. Uhm, wat, wat verwacht je daar?

279
00:42:56.786 --> 00:42:58.916
I-is dat, is dat, heeft dat iets te maken met regulering, hè?

280
00:42:58.916 --> 00:43:08.806
Want je zei net al: misschien, uh, is het straks zo dat je een, dat er diensten zijn die er bewust voor kiezen om expliciet te maken, uh, van: ja, zoveel bomen kost jouw query.

281
00:43:08.866 --> 00:43:15.065
Of, hè, als een soort visualisaties of zo, maar misschien wordt dat dan ook wel verplicht. Of, uh, hoe, hoe, hoe zie je dat?

282
00:43:15.626 --> 00:43:27.446
Nou ja, je hebt als organisaties, uh, natuurlijk sowieso steeds, uh, heb je dat nu het, uh, hoe heet het, Su-Sustainable, uh, Corporate Sustainable Reporting Directive of zoiets dergelijks, waarin men al dit soort dingen al eigenlijk moet doen.

283
00:43:28.406 --> 00:43:37.126
Uhm, wat, uh, denk ik, uh, lastig is bij al dit soort dingen is dat je ook wel een, uh, first mover advantage hebt, hè.

284
00:43:37.166 --> 00:43:46.246
Je hebt nu al die grote partijen die zelfs kerncentrales nu aan het neerzetten om, om energie voor compute, uh, uh, uh, te kunnen, te kunnen garanderen.

285
00:43:46.626 --> 00:43:57.046
Je wil ook niet in de situatie komen waar je als, uh, Nederland of als Europa je a-, wereldwijde afhankelijkheid groeit omdat je per se moet gaan voor de, ja, de meest efficiënte, uh, compute optie misschien.

286
00:43:57.826 --> 00:44:07.306
Uhm, dus het zijn allemaal waarden die in spanning tot elkaar staan. Ik denk alleen wat niet constructief is, is, uh, denken dat duurzaamheid hier geen rol in speelt.

287
00:44:07.386 --> 00:44:16.646
We, we zijn, we leven in een hele complexe tijd als het gaat om onze, uh, klimaatimpact en, uhm, ook dit soort dingen maken uit.

288
00:44:16.666 --> 00:44:22.926
En, en ik persoonlijk, maar dat is meer mijn persoonlijke opinie, denk ik dat ook het in-gedrag van in-individuen daarin een rol, uh, te spelen heeft. Ja.

289
00:44:23.406 --> 00:44:32.416
Uhm, voor een rapport vorig jaar dacht ik: laat ik eens uitzoeken van hoeveel joule en energie zijn wij nou kwijt op onze eigen computerinfrastructuur om een paar plaatjes te genereren.

290
00:44:32.926 --> 00:44:38.706
Nou, uiteindelijk ben je toch voor zo'n rapport, om, voordat je een leuk plaatje bent, hebt, heb je toch wel een paar, ja, een aantal plaatjes gegenereerd.

291
00:44:38.946 --> 00:44:44.066
Nou, kwam uiteindelijk toen der tijd uit op ongeveer even, evenveel energie als, uh, twee potten koffie zetten.

292
00:44:44.106 --> 00:44:51.706
Ja, dan daarna, den-dacht, denk je toch: nou, had, had ik dat niet gewoon van het internet af kunnen halen, gewoon op Shutterstock zoals iedereen dat doet? Of- Ja. Uhm.

293
00:44:52.426 --> 00:44:59.966
Ja, het is een beetje ple-, net als plastic voor niets gebruiken eigenlijk. Moet je dat per se doen? Nee, want, uh, ja, wa-wat heeft dat voor zin en wat maakt het, uh, misschien beter?

294
00:45:00.006 --> 00:45:07.506
Maar misschien, in dat opzicht is het wel interessant om, uh, ook als een soort afsluiting, uhm, te kijken of we iets van een kaart kunnen vinden.

295
00:45:07.546 --> 00:45:16.906
Of, want met een, een kaart klinkt zo, uh, cute, maar ik bedoel eigenlijk nu, het, we, in het gesprek is het ook, je doet een query naar een taalmodel.

296
00:45:17.026 --> 00:45:21.335
Is dat JP-GPT-4 Mini, hè, een kleiner model dat veel minder energie gebruikt?

297
00:45:21.386 --> 00:45:31.626
Of is dat het O1 Preview, het allerzwaarste model wat ook nog eens 20 seconden lang gaat nadenken, dus dat is echt wel een, uh, kopje koffie misschien. Of is het een plaatje genereren? Of is het een video genereren?

298
00:45:31.966 --> 00:45:43.246
Het heeft ook een beetje te maken, tuurlijk, met wat je, wat je genereert en da-, die is nog zo moeilijk in te schatten nu, uh, waardoor je allemaal, nou, wat ik dan nog een beetje cowboy wild west-achtige dingen van mensen die, uh, va-van lampen tot koffie.

299
00:45:43.346 --> 00:45:47.066
En niet dat dat niet waar is, hè, maar hij is zo tricky daarin. Want wat zijn we dan aan het doen?

300
00:45:47.726 --> 00:45:56.846
Volgens mij, uh, heeft het er vooral mee te maken, want ik, ik wil natuurlijk eigenlijk die vraag beantwoorden die mensen aan mij stellen met: moet ik nou nog wel of niet ChatGPT gebruiken?

301
00:45:57.286 --> 00:46:03.286
Nou ja, je zou eens kunnen gaan kijken naar lokale modellen, hè, als het op je eigen laptop draait en je hebt zonnepanelen liggen thuis.

302
00:46:03.716 --> 00:46:13.256
Hè, ik, ik ka-kan me zelfs voorstellen, hè, om nog maar, uh, een beetje richting het, de positieve, optimistische te kijken. Wat veel AI-bedrijven nu doen is, uh, batched opdrachten.

303
00:46:13.306 --> 00:46:19.526
Dus dat houdt technisch in dat jij een vraag kan stellen van: wil je deze boeken voor me samenvatten en stuur ze maar op op het moment dat jullie er klaar voor zijn.

304
00:46:19.566 --> 00:46:25.446
Dus dan krijg je het antwoord niet meteen, maar bijvoorbeeld een dag later. En wat ze dan- Heeft de zon even geschenen. Ja, dan pakken ze de overcapaciteit.

305
00:46:25.466 --> 00:46:32.966
Ik bedoel in een, in mijn, uh, naïeve, uh, techno fix zou je gewoon zeggen: ik heb een aantal plaatjes die ik wil maken. Ik vind niet erg als ik ze morgen krijg.

306
00:46:33.066 --> 00:46:41.486
Doe maar als de zon schijnt en ik op mijn werk zit en die energie anders gaat, uh, anders gaat namelijk het relais van mijn zonne-installatie aan en wor-, gaat dat ook een soort van verloren, hè.

307
00:46:41.546 --> 00:46:52.726
Dus ik ben als techneut natuurlijk altijd op zoek naar: kunnen we dit ook niet op slimmere manieren oppakken? Moeten we het antwoord meteen hebben steeds van AI? Ja, nee, uh, uh, zeker.

308
00:46:52.806 --> 00:46:56.166
En, en sommige dingen is, uh, is AI ook helemaal niet voor nodig, hè.

309
00:46:56.206 --> 00:47:05.866
Dus, uh, wat mij, uh, die mateloos, uh, uh, matig ge-gegenereerde LinkedIn-posts bijvoorbeeld, waar, die allemaal dezelfde format hebben en er allemaal hetzelfde uitzien. Hoe kom je, hoe kom je erbij?

310
00:47:05.926 --> 00:47:15.586
Nee, joh, is allemaal supermooi op LinkedIn. Ja, joh, echt inspirerend. Nee, maar, da-dat is, ja, da-dat zou je, [lacht] zou je verspilling van computerkracht kunnen noemen.

311
00:47:15.626 --> 00:47:24.566
Maar ik word inderdaad, hou op met mij die berichten sturen de hele tijd ook van: hé, het lijkt me, uh, een belangrijke connectie die we maken en denk: waarom? En denk: oh ja, het is weer, uh, automatisch gegenereerd.

312
00:47:25.326 --> 00:47:35.966
Ja. Zone onzin. Ja. Uhm, maar, d-d-, wat, uh, wel, ik ben het wel met je eens, denk Wietse, uh, uhm, dit moet ze, dit thema moet zich gewoon nog wat beter, uh, uh, stabiliseren.

313
00:47:36.546 --> 00:47:47.296
Uh, ik denk dat individuen kunnen, uh, individuele afde-wegingen maken, maar die hebben, ja, het is toch altijd moeilijk om, uhm, uh, daarmee globale impact te hebben, hè.

314
00:47:47.326 --> 00:48:03.366
Dat is dezelfde discussie over je footprint versus, uh, Shell die, uh, z-zijn gedrag, uh, even, verandert als organisatie, als, uhm, uhm, dus we moeten die, we, we moeten bedrijven wel, uh, we, we moeten het thema wel bespreekbaar houden, want dat houdt ook bedrijven scherp om er wat mee te doen.

315
00:48:03.426 --> 00:48:03.556
Oh, dat denk ik wel.

316
00:48:03.556 --> 00:48:13.386
Als we het allemaal maar, uhm, uit de weg gaan omdat we het een complex thema vinden, dan hebben we het er niet over en dan wordt het ook niet als een belangrijk, uh, thema gezien door bijvoorbeeld de providers van dit soort, uh, systemen.

317
00:48:13.826 --> 00:48:22.765
Ja. Uhm, en er zijn wel, uh, en, en daar moet je mij echt niet voor hebben, maar er zijn wel technische ontwikkelingen die, uh, waarschijnlijk compute weer een, een slag efficiënter maken.

318
00:48:23.206 --> 00:48:32.786
Nou ja, dan kunnen jullie wel raden, gaat dan de energieverbruik naar beneden of gaat het gebruik omhoog? Uhm. Ja, ja, als die chip 10 keer zo efficiënt wordt, wordt het datacenter 10 keer zo groot. Dat is wat jij zegt.

319
00:48:32.866 --> 00:48:44.026
Ja, waarschijnlijk wel. Uhm, en misschien ga, ja, we, we kunnen de toekomst niet voorspellen denk ik dan. Uhm. Nee. Uh, maar wel bewust afwegingen maken over waar we, uh, prioriteit, uh, aan stellen.

320
00:48:44.046 --> 00:48:53.706
En ook bijvoorbeeld als je tenders schrijft waar je je tenders op afweegtJa, en ik denk ook dat de hoof-de hoofdmoot is denk ik: uh, de cloud bestaat niet. Als in, hè, dat, zo begon jij je verhaal.

321
00:48:53.806 --> 00:48:59.226
Het is allemaal fysieke infrastructuur. Ik ben wel eens in datacenters geweest. Het is een enorme herrie ook. Het is echt een hele heftige plek.

322
00:48:59.626 --> 00:49:07.446
Ik denk daar vaak aan als ik achter de computer zit, dat ik denk: ik heb gewoon een kabel gelegd naar een hele rommelige warme ruimte ergens en daardoor heb ik het gevoel alsof ik die ruimte niet gebruik.

323
00:49:07.486 --> 00:49:14.786
Maar die ruimte is er wel, ergens. Ja, maar niet in jouw eigen achtertuin. Het valt in jouw backyard. Maar niet in de cloud. Maar ik, ik snap je punt helemaal, Duuk.

324
00:49:14.866 --> 00:49:23.906
Je zei eigenlijk dus van: uh, er moet meer bewustzijn over komen. Uh, bedrijven moeten er ook bewust van zijn. Ik vind dan ook wel dat ze daarover moeten rapporteren.

325
00:49:23.926 --> 00:49:35.426
Want wat wij laatst in Google's milieurapport lazen, daar stond gewoon: ja, the distinction between AI and other workloads will not be meaningful. Ja, dat is toch wel een beetje je hoofd in het zand steken denk ik dan.

326
00:49:35.466 --> 00:49:43.786
Ja, zij willen, zij doen een, een, een rapport uitbrengen vanuit Google en de andere grote, uh, techreuzen doen dat ook waarin ze hun uitstoot, uh, kwantificeren.

327
00:49:43.846 --> 00:49:50.466
En daarin is dus het idee vooralsnog om te zeggen: het heeft geen zin om onderscheid te maken tussen AI workloads en non-AI workloads.

328
00:49:50.506 --> 00:50:00.426
Dat ik dacht: ja, dat is echt een beetje onzin, want je moet straks toch gaan uitleggen waarom je tien keer zoveel datacentra, uh, energieuitstoot bent gaan doen? Uh, dat is toch echt wel je Gemini-model? Maar goed.

329
00:50:00.666 --> 00:50:10.766
Toch, Duuk? Toch? [lacht] Toch, toch? [lacht] Nou ja, uh, uh, uh, over het algemeen, uh, uh, als, als, uh, als, uh, publieke sectorfiguur, om het zo maar te zeggen.

330
00:50:10.966 --> 00:50:28.646
Uh, openheid is altijd belangrijk en pas als we, uhm, hè, het feit dat we nu bijvoorbeeld niet weten wat nou de impact is van, uh, zo'n prompt, dat is deels omdat we er niet in kunnen kijken en het, het, uh, uiteindelijk, ja, je weet niet wat er achter het gordijntje precies gebeurt, dus we kunnen daar ook moeilijk, uh, wat van vinden als er niet over gerapporteerd wordt.

331
00:50:28.766 --> 00:50:37.166
Ja. Yep. Nou dank Duuk, Baten, dat jij, uh, ons, uh, even hier met ons verder over wilde filosoferen. We hebben het niet opgelost, maar dat was ook niet de pretentie.

332
00:50:38.046 --> 00:50:49.946
Uhm, ja, ik denk, uh, dat, ja, ja, wat denk ik eigenlijk hier nu over? [lacht] Ja, zeg het maar. Ja, uhm, ik ga jou gewoon afscheid nemen van jou, Duuk. Dan kun jij, uh, dan kun je door. Dank voor je tijd in ieder geval.

333
00:50:50.026 --> 00:51:00.646
En, uh, ja, hopelijk tot misschien een volgende keer. Als je meer weet dan, uh, laat je het ons weten. Ja, super bedankt Duuk, echt, uh, ontzettend fijn. [muziek] Ja, Wytse maak die balans eens even op na dit gesprek.

334
00:51:01.406 --> 00:51:11.966
Nou, ik denk dat, uh, hoe we het ook al een beetje aankondigden, dit is niet genoeg voor wat mensen denk ik willen. Uh, omdat, ja, het toch wel prettig is gewoon antwoord te krijgen: kan ik het nou gebruiken of niet?

335
00:51:12.446 --> 00:51:17.386
Moet ik me er nou voor schamen of niet? Uhm. En hebben we een heel groot probleem of niet?

336
00:51:17.786 --> 00:51:26.526
Ja, en ik denk dat we geprobeerd hebben nu, uh, en dat lukte denk ik aardig, is om in ieder geval over te brengen dat het zo'n complex onderwerp is.

337
00:51:26.566 --> 00:51:34.666
Dat dat niet betekent dat we het er dus helemaal niet over kunnen hebben, maar dat op een bierviltje zelf gaan kal-, uh, b-rekeningen gaan maken begint het al heel snel ingewikkeld te worden.

338
00:51:34.706 --> 00:51:44.746
Want als je een dag eerder naar huis kan dankzij AI heb je ook weer wat bespaard en een autoritje en de verwarming die niet aan hoefde. Dus, uh, dat vind ik. We hebben meer vragen nog dan antwoorden.

339
00:51:44.786 --> 00:51:50.966
Ja, als je kan videobellen met iemand in New York bespaart het natuurlijk ook weer meer energie dan als je er naartoe moet.

340
00:51:51.246 --> 00:52:01.226
Ja, en dat je dan een synthetische versie van jezelf kan maken die meerdere taken tegelijk kan uitvoeren. Het is wel weer zo dat een mens weer superefficiënt is, als in: wij kunnen heel veel bedenken.

341
00:52:01.286 --> 00:52:09.046
Onze intelligentie is best wel efficiënt gebouwd voor hoeveel calorieën erin moeten. [lacht] Nou, ik wou zeggen: gaan we er ook minder van eten als je, [lacht] toch? Ja, mooi.

342
00:52:09.086 --> 00:52:21.986
Ja, want dat moet dan wel inderdaad als we zeggen van: nee, het maakt ons intellige-, ja, efficiënter en het gaat allemaal dingen voor ons overnemen, zodat wij daar zelf, ja, al-al, dat wij onze energie anders kunnen besteden, moeten we niet meer gaan eten, want dan doen we alles weer teniet.

343
00:52:22.406 --> 00:52:33.786
Ja, nou ik denk, ik denk dat het verdient, dit onderwerp verdient sowieso een vervolg. Uh, dus to be continued. Ik vind het, ben wel blij dat we het een keer aangeraakt hebben. En, uhm, ja, ik ben ook gewoon benieuwd hoe

344
00:52:34.746 --> 00:52:49.686
dit onderwerp verder ontwikkelt naarmate dat energieverbruik daadwerwiekelijk zo ver toeneemt, hè, want we praten toch wel over heel veel projecties en een soort doemscenario's met straks is het 10% van de wereldwijde energiebehoefte wordt, uh, is een datacenter waar grotendeels AI compute in gebeurt.

345
00:52:49.806 --> 00:52:56.506
Dat is een beetje de voorspelling, uhm, ja, hoe we er dan naar kijken en ook hoe het zich, of het zich gaat tonen in de applicaties zelf, hè.

346
00:52:56.566 --> 00:53:08.026
Dus wat ik al zei, dat je in ChatGPT kan kiezen dat er een blaadje voor een bepaald model staat, een groen blaadje en dat jij kiest voor het, uh, minimodel omdat dat dan minder gebruikt en daar ook je antwoorden uit kan halen.

347
00:53:08.146 --> 00:53:11.526
Ja, dus het is niet alleen maar hete game zeg jij, maar ook hete players.

348
00:53:12.066 --> 00:53:17.106
En dan heb ik het niet per se stiekem over dat we iedereen moeten gaan haten die AI gebruikt, maar wel: we hebben allemaal natuurlijk een rol te spelen.

349
00:53:17.136 --> 00:53:24.666
Nou ja, goed, ik leef het liefst, ik zou het liefst in een wereld leven waarin er gewoon oneindige energie is en, uh, ik me hier helemaal niet zo druk om zou hoeven maken. Ja.

350
00:53:24.826 --> 00:53:26.666
Uh, maar dat, daar zijn, daar zijn we nu niet.

351
00:53:26.746 --> 00:53:40.546
Ja, ik lees ook nog wel, en dat is het laatste wat ik er nog wel over, aan jou wilde voorleggen, dat, uh, er op i-, op, op, ja, Twitter en zo of X wordt gespeculeerd over: ja, hoe groot is da-dat nou eigenlijk echt?

352
00:53:40.586 --> 00:53:50.246
Iemand zegt: ja, we moeten wel een beetje perspectief behouden. Eén taalmodel, uh, trainen, dat is ongeveer gelijk aan, uh, ja, de carbon footprint van twee auto's in een jaar.

353
00:53:50.286 --> 00:54:00.616
De wereld maakt 100 miljoen auto's per jaar. Nou, stel je voor dat we 10.000, uh, taalmodellen per jaar trainen, dan is AI nog niet eens 0,02% van de energie.

354
00:54:00.666 --> 00:54:06.806
Ja, maar is een beetje valse vergelijking natuurlijk, omdat er is een groot verschil tussen trainen wat je eigenlijk maar één keer doet of eens in de drie maanden.

355
00:54:06.886 --> 00:54:14.526
Of nou ja, dat, dat, dat doe je, uh, zo'n model kan je daarna kopiëren en dan op allerlei, uh, verschillende computers tegelijk uitrollen binnen je datacenter.

356
00:54:14.546 --> 00:54:23.626
Het gaat volgens mij vooral om het energiegebruik van wanneer de modellen al getraind zijn en gebruikt worden door eindgebruikers, namelijk om tekst en plaatjes en video te genereren.

357
00:54:23.646 --> 00:54:29.886
Maar trainen kost ook heel veel energie. Dat doe je dan één keer, maar. Ja, maar in verhouding tot het totaalplaatje. Dan valt het weg.

358
00:54:29.926 --> 00:54:41.706
En wat nu, je zou als je nu gaat zeggen, uh, k-, het, het hele energievraagstuk rondom AI gaat zowel over trainen als het uitvoeren van de modellen. Die zou ik samen nemen en naar dat totaalplaatje kijken.

359
00:54:42.146 --> 00:54:49.326
Als je dan één stukje eruit gaat halen en dan daar alle vergelijkingen mee gaat doen, vind ik niet helemaal fair. Dat is een beetje appels en peren. Een beetje. Goed.

360
00:54:49.366 --> 00:54:56.426
Nou, moeten we allemaal met, uh, taalmodellen stoppen? Nee, dat hoeft niet per se, maar wees je wel een beetje er bewust van misschien met wat je allemaal, uh, laat doen door die machine.

361
00:54:56.686 --> 00:55:04.406
En ondertussen zou het fijn zijn als die bedrijven een keer open kaart gaan spelen. Nou ja, en to be continued zou ik zeggen, want het, we gaan gewoon zien hoe het thema zich verder ontwikkelt. Juist.

362
00:55:04.626 --> 00:55:13.066
Ja, dan zit deze aflevering er op. Wij danken Sam Hingenveld, uh, voor de edit. Stel nou, je wil een lezing over AI van Wytse of van Alexander, dan kan dat.

363
00:55:13.126 --> 00:55:24.186
Mail lezing@pokkie.show en vergeet je natuurlijk niet te abonneren op de nieuwsbrief. En waarvoor moeten we daarop kijken? AIreport.email. Juist. Doei. Doei.

364
00:55:24.866 --> 00:55:39.446
[muziek]
