WEBVTT

1
00:00:00.100 --> 00:00:09.440
[alarm] Oh. [zucht] Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:18.600
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.740 --> 00:00:39.620
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:51.000
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Koffietijd voor mannen. De podcast waarin drie onbezonnen gasten je wekelijks een kijkje geven in hun zinderende studentenleven.

6
00:00:51.060 --> 00:01:00.540
We gaan geen onderwerp uit de weg en helpen je op het gebied van liefde. Zou je huilen tijdens de seks een, een, een afknapper vinden? Vriendschap en alle andere problemen die je tegenkomt in je studentenleven.

7
00:01:00.700 --> 00:01:14.320
Ze miste een beetje vo. [gelach] Elke maandag om drie uur sharp op je favoriete podcast platform. Ik heb met zoveel meiden getongd en met vier verschillende. Ik zo bram, dat was vier keer dezelfde.

8
00:01:14.340 --> 00:01:26.880
[piep] We luisteren deze podcast op eigen risico. Hey, dit is Pokki! De Nederlandse podcast over kunstmatige intelligentie waar we uitzoeken welke invloed AI gaat hebben op ons werk, ons leven, op de samenleving.

9
00:01:27.400 --> 00:01:33.880
Aanwezig vandaag Alexander Klöpping, Wytse Hagen, Milou Brandt dat ben ik. En we hebben een volle show. Want we, ja, we hebben wat in te halen natuurlijk.

10
00:01:33.920 --> 00:01:45.380
Na de vakantie onder andere hebben we het over waarom wij dit geen bad girl summer moeten noemen, maar misschien wel een humanoid robot zanger. En in deze aflevering ruim baan voor Cursor. Dat wil Wytse namelijk graag.

11
00:01:45.420 --> 00:01:56.140
Het is een programma dat programmeurs, beginners en gevorderden helpt om code te schrijven. Is dat belangrijk Wytse? Dat is wel een substantieel nieuwsitem ja. Straks meer. Oké, ik ben benieuwd.

12
00:01:56.180 --> 00:02:09.220
En daarom is het ook ons grote onderwerp. We gaan beginnen. [muziek] Hebben jullie me gemist?

13
00:02:10.740 --> 00:02:20.560
[lacht] Nou, eigenlijk is dan de vraag: heb ik AI nieuws gemist? Ik heb me er wel voor afgesloten hoor, deze zomer. En het antwoord luidt nee. Niet gemist.

14
00:02:20.600 --> 00:02:29.400
Ja, het spijt me, maar nee, ik heb, ik heb dan geen moeite om dat in de zomer te missen, hoor. Oh, ik moest, ik, ik zat me een beetje voor te bereiden op dat ik een bekentenis hier zou moeten afleggen.

15
00:02:29.440 --> 00:02:37.380
Dat ik me ook eigenlijk best wel heb afgesloten voor, voor- Maar het is toch goed. Het is zo hysterisch de hele tijd en ik ben wel blij dat het eventjes wat chiller was.

16
00:02:37.400 --> 00:02:46.420
Volgens mij is er ook weinig, is er, is er nou veel nieuws geweest deze zomer? Ja, ik had beloofd dat het, ik zou terugkomen tussendoor als er wichtige- Je bent niet teruggekomen, dat zegt genoeg. [lacht] Ja.

17
00:02:46.460 --> 00:02:53.980
Nou, het zijn kleine dingen, uh, doorontwikkelingen. Maar het, september is altijd wel een beetje de maand dat die techbedrijven pakken om alles te doen. Dan zijn we allemaal weer terug.

18
00:02:54.000 --> 00:02:58.440
Zijn we allemaal weer aan het werk, willen we allemaal afgeleid worden door dingen lezen en dan gooien ze de media vol.

19
00:02:58.600 --> 00:03:10.700
Ja, en ik denk al die, al die bedrijven zijn, alle techbedrijven zijn sowieso bezig met marketing en PR. En het is natuurlijk echt heel dom om dingen te lanceren in de hoogzomer. Nou, even daarover.

20
00:03:10.760 --> 00:03:14.960
Ik vond het ook heel erg vervelend dat er geen enkele goede film heeft gedraaid deze hele zomer.

21
00:03:15.040 --> 00:03:23.520
[lacht] Dan heb ik eindelijk tijd om een keer naar de film te gaan 's avonds en dan draait er alleen een kinderfilm en een Nederlandstalige film voor bejaarden. Ja. Waar ben je geweest dan? Ja, nergens heen.

22
00:03:23.560 --> 00:03:30.880
Je bent gewoon terug naar huis gegaan. Ja, ik, ik, ik kan tegenwoordig heb je websites van, uh, van de, van de bi-bioscoop en dan kun je kijken wat er draait.

23
00:03:31.109 --> 00:03:40.600
[lacht] Dus dan kun je gewoon vanuit huis bekijken wat er, wat er draait. Maar Milou, ik zeg: we hebben je gemist, want je begint een beetje te sniden naar ons omdat wij [lacht] doen alsof. Ja.

24
00:03:40.640 --> 00:03:50.600
Maar we hebben je gemist en, uhm, ik zat wel te denken nu we het er net over hadden. Het kan natuurlijk ook zo zijn dat die AI-bedrijven wel nieuws naar buiten hebben gebracht waar ze juist geen aandacht voor wilden.

25
00:03:50.800 --> 00:04:01.020
Die kan natuurlijk ook een beetje dingen- Dumpen. Ja, je kan een beetje dingen naar buiten gooien in, uh, juli en augustus die, uh. Laten we het lijstje aflopen. Misschien te beginnen bij de, de, de grootmaerschalk.

26
00:04:01.480 --> 00:04:13.380
OpenAI. Wat- Zijn ze dat nog? Oké. Sorry. Nee, nee. Prima. Vertel. Nou, dit. Ik denk dat, er is deze hele zomer toch wel een beetje OpenAI gaat failliet, want ze hebben heel veel geld nodig, maar geen businessmodel.

27
00:04:13.460 --> 00:04:23.380
Ja, dat is de vibe opeens. Soort van er moet opeens geld verdiend worden. Soort van is het aan het opdrogen, het VC-geld. Want mensen willen nu gewoon gaan zien le-- gaat het ooit nog wat opleveren?

28
00:04:23.520 --> 00:04:32.760
Dat is wel ongeduldig. Daar is ook crypto op ingestort. De beurzen za-hebben een klap gekregen op dat sentiment. Ja, dus er zit een beetje een soort van kan OpenAI het allemaal wel waarmaken?

29
00:04:32.940 --> 00:04:38.840
En is Anthropic dan de nieuwe koning, hè? Er zijn een aantal mensen bij OpenAI weggegaan die nu inmiddels bij Anthropic werken. Ja.

30
00:04:38.880 --> 00:04:47.420
Het is wel een beetje een leuk eenvoudig verhaal, als een soort marathonwedstrijd met mensen die dan steeds elkaar afwisselen. Dat is spectaculair. Ik denk dat het wel wat complexer ligt.

31
00:04:47.480 --> 00:04:56.360
Volgens mij gaat het nog best wel goed met OpenAI. Hebben ze nog genoeg, uh, wat ze nog kunnen lanceren. Mhm. En het duurt allemaal gewoon. Ik denk dat mensen gewoon ongeduldig zijn. Ik zat op het OpenAI YouTube-channel.

32
00:04:56.600 --> 00:05:06.260
Hebben ze die demo's van hun audioding waarmee je zou kan kletsen met Sc-Scarlett Johansson destijds nog. En dan is de meme daaronder in de comments alleen maar: zes maanden geleden zeiden jullie dit. Waar is het nu?

33
00:05:06.320 --> 00:05:08.700
Ja, ja, ja. Stop met je hypen, et cetera. Ja, ja.

34
00:05:08.720 --> 00:05:18.760
Terwijl ik zelf denk: ja, een, een natuurlijke gesprek voeren met een AI en dan samen lachen en andere stemmetjes opzetten is best nog steeds spectaculair, dus geef ze even.

35
00:05:19.200 --> 00:05:27.800
Ja, het verschuift snel wat we vet vinden dan denk ik, want dan hebben we het gehoord en dan, dan is het er opeens en denk je van: o, maar is, is dit het? Ja, daar ben ik eigenlijk al aan gewend.

36
00:05:28.010 --> 00:05:35.640
Doen ze eigenlijk zelf, hè. Ze doen een soft launch Ja. en daarna lanceren ze het niet naar ons en dan worden mensen dus ongeduldig. Ja. Maar ik denk dat om, om nog terug te komen op dat investerings verhaal.

37
00:05:35.700 --> 00:05:41.040
Tegelijkertijd komt er enorm veel geld binnen bij OpenAI. Er wordt aan alle kanten geld ingestopt en ook in andere AI-bedrijven.

38
00:05:41.440 --> 00:05:50.380
Dus het is een, ik denk dat je op basis van precies dezelfde cijfers twee hele andere narratieven kan schetsen. Ja. Het gaat helemaal niet goed. Of kijk eens hoe goed het gaat, want er wordt zoveel geïnvesteerd.

39
00:05:50.560 --> 00:06:03.820
Wat is er nu met OpenAI wat er op stapel staat? Even resumerend.Ze hebben destijds. Maanden geleden ging het over Q Star. Een of ander wous mysterieus project. Dat heet dan inmiddels Strawberry. Waarschijnlijk.

40
00:06:03.900 --> 00:06:12.420
Het grapje is dat als jij vraagt aan OpenAI, AI grote modellen GPT vier hoeveel letter r zitten er in Strawberry? Dan weet hij dat niet. En dat is dan altijd van haha.

41
00:06:12.740 --> 00:06:19.480
Dit ding is toch zo slim, maar weet niet eens hoe vaak de letter r in het woord strawberry voorkomt. En nu is hun tongue in cheek dan een beetje. Dit is

42
00:06:20.760 --> 00:06:30.860
wat mensen een beetje suggereren van zullen we dat deel waar nu die taal modellen door de mand vallen dat gaan verbeteren? Daar moet een sticker op. Hoe zeg je dat een pleister op.

43
00:06:31.360 --> 00:06:41.080
En Project Strawberry is eigenlijk een tweede systeem wat ernaast draait. Wat weer controle doet op het eerste systeem die gaat zorgen dat ja logica gaat kloppen.

44
00:06:41.140 --> 00:06:49.840
Bijvoorbeeld om wiskunde te doen en om bepaalde om het aantal letters in een woord te tellen. Er zijn een paar van die ja, wat je dan disharmonie noemt, dus dat kan ook bij mensen.

45
00:06:49.880 --> 00:06:56.740
Als jij disharmonie bent, dan denk je oh, die persoon is echt super intelligent en op alle punten, maar dan op een ander punt. In hun persoonlijkheid zijn ze veel minder ontwikkeld.

46
00:06:56.780 --> 00:07:05.180
Maar wat boeit dat, dat die letter r goed kan tellen in Strawberry? Het kan natuurlijk zo zijn dat zo'n soortgelijke taak onderdeel is van een aantal taken die jij vraagt.

47
00:07:05.200 --> 00:07:12.100
Dus je stelt een grote vraag aan zo'n taal model. En al die taken subtaken gaan allemaal goed. Op alle taken een negen, maar op die ene taak een twee.

48
00:07:12.440 --> 00:07:22.580
En als dat dan doorwerkt in de rest van jouw vraag, dan heb je toch een verkeerd antwoord. Als je het even ziet als een soort lange wiskundesom. Dus je wil eigenlijk dat je gaat kijken naar.

49
00:07:22.640 --> 00:07:27.380
Als we nou al die testen er tegenaan gooien. Vaak nu testen die normaal bij mensen afgenomen worden.

50
00:07:27.400 --> 00:07:33.600
Die neem je dan af bij zo'n taal model en dan geef je het een score en dan kan je precies zien van oké, maar wacht even dit, dit. Je kan.

51
00:07:33.660 --> 00:07:43.840
Hij slaagt voor de bar, dus je kan een advocaat jurist worden volgens de Amerikanen wet. Amerikaanse wet, dat wel, maar het aantal letters tellen in een woord is blijkbaar te ingewikkeld.

52
00:07:43.850 --> 00:07:51.700
Een taakje wat een vierjarige nog kan, dat kan hij niet. En dat is eigenlijk open AI, onder andere nu aan het patchen als het ware door andere systemen eromheen te bouwen.

53
00:07:52.320 --> 00:07:58.120
En dat Strawberry schijnt nu getoond te zijn aan een aantal insiders die dat dan hebben gezien, onder andere de overheid.

54
00:07:58.640 --> 00:08:07.869
En van oké, dit is voor bijvoorbeeld software maken ook best wel heel belangrijk om die logica goed te hebben. Want AI zelf is software, dus dan kan je software maken met AI om software.

55
00:08:08.000 --> 00:08:18.080
Ja, het is een stapje daar naartoe. We gaan al die mensen online weer zeggen daar gaat ie, die raket gaat vliegen. En dat wiskunde, want ik sta dus heel vaak op congressen en als ik dat als ik de AI.

56
00:08:18.400 --> 00:08:26.780
Als ik zeg maar AI rondom creativiteit is iedereen laaiend enthousiast en zeggen ze we gebruiken het is geweldig en het scheelt heel veel tijd en ik ben creatiever geworden.

57
00:08:26.800 --> 00:08:39.140
Maar ik sta ook wel eens op congressen met accountants. Die willen ook veel over AI weten en omdat ze ook denken en die zijn continu totaal gedesillusioneerd. Die zeggen het. Het werkt in de praktijk helemaal niet.

58
00:08:39.220 --> 00:08:47.059
Dat ding kan niet rekenen. We zijn niet in de buurt van het moment dat het ons daadwerkelijk met. Met ons werk kan helpen. Hoe?

59
00:08:47.140 --> 00:08:56.920
Hoe verhoudt zich dat tot die belofte dat Strawberry beter gaat worden in het oplossen van wiskundige problemen? Nou, wat ze nu, wat ze tot nu toe hebben gedaan, wat al heel erg goed werkt.

60
00:08:56.940 --> 00:09:00.839
En met ze bedoel ik dan open AI. Even voor het gemak van het gesprek is dat.

61
00:09:01.340 --> 00:09:10.450
Ik had laatst bijvoorbeeld gevraagd als ik pensioen wil opbouwen tegen X rendement met zoveel gemiddelde inflatie et cetera, et cetera, et cetera. Hoeveel geld moet je dan per maand storten?

62
00:09:10.560 --> 00:09:17.760
Een logische vraag voor een zelfstandig ondernemer zijn allerlei online calculatie tools voor en ik denk ik vind het dan leuk om even te kijken wat zo'n taal model daarmee kan.

63
00:09:18.160 --> 00:09:28.620
Nou OpenAI, je zegt dan heel snel ik ga nu een Python script schrijven, want dit is wiskunde. Ik moet gaan rekenen met getallen. Dus je gaat dan eigenlijk het rekenmodel associëren.

64
00:09:28.720 --> 00:09:37.200
Bluffen, gokken, want dat kunnen die taal modellen goed. De volgende letter, de volgende regel van het rekenmodel. Gokken om vervolgens dat rekenmodel uit te voeren.

65
00:09:37.620 --> 00:09:45.540
En daar komen dan cijfers uit en dan kan je ook meekijken hoe hij dat berekent. En als je dat dan laat zien. Ik heb dat een aantal mensen laten zien die er wat meer van weten.

66
00:09:45.560 --> 00:09:56.760
Die zeggen dan nou, het is best een prima middelbare school reken economie methode. Mno, maatschappij en ondernemer, maatschappij en ondernemerachtig ding om dat te berekenen.

67
00:09:56.800 --> 00:10:05.180
Dat is een trucje, want je gaat dus eigenlijk een tussenstapje nemen. Eerst je. Kun je programmeren is dan de skill die daadwerkelijk relevant is. En dat kan je dan.

68
00:10:05.220 --> 00:10:10.460
En ik zag bij Antropics doen ze dat een beetje op de achtergrond nu. Dus dan krijg je een bronvermelding van je berekening.

69
00:10:10.580 --> 00:10:16.860
Hij geeft gewoon het antwoord en als je daar op klikt zie je wat hij gebruikt heeft om die berekening te maken. En dit zijn dan oplossingen.

70
00:10:16.960 --> 00:10:31.600
Project Strawberry gaat meer over meerdere modellen die met elkaar meekijken en die eigenlijk zegt oké, probeer het maar tien keer en dan ga ik uit die team de beste keuze pakken op de hoogste kans dat dat een serieus kloppend antwoord is dus.

71
00:10:31.840 --> 00:10:43.800
Maar om, om een misschien een beter antwoord op je vraag te geven ik denk dat nu die als mensen gaan chatten op hun telefoon of gaan kletsen met zo'n tool, dat ze het zien als een soort general intelligence, een AGI.

72
00:10:44.400 --> 00:10:53.900
Een soort synthetisch mens, terwijl het eigenlijk een woord voorspeller is. Die dus heel goed kan dichten en leuke brieven kan schrijven en e-mails voor je kan samenvatten. Daar is hij hartstikke goed in.

73
00:10:54.080 --> 00:11:01.979
Laat ik het zo zeggen als je wil weten waar het goed in is, is waar Google en Apple en Microsoft het voor proberen in te zetten. Summarization. Weet je wel, tips voor een betere e-mail.

74
00:11:02.660 --> 00:11:14.520
Maar dat, dat maakt het niet een goede rekenwonder of iets wat. Je jaaropgave. Wat allemaal moeilijke taken voor je kan uitvoeren, zoals een marketingstrategie ook uitzetten. Precies omdat daar dus die disharmonie zit.

75
00:11:14.540 --> 00:11:19.500
Dat je het dus overschat. Net als dat je denkt dat een tv-presentator een goede politicus is.

76
00:11:19.540 --> 00:11:25.440
Die twee dingen zijn eigenlijk niet echt met elkaar verbonden, maar dat verwachten we dan soms wel, want bekendheid is blijkbaar intelligentie of zo.

77
00:11:25.880 --> 00:11:37.600
Nou, uiteindelijk heb je nu dus, want dat vind ik het grappige als ik lezingen geef of discussies heb met mensen die dan altijd een gotcha hebben. Dus dan hebben ze iets gevraagd aan die app en dan laten ze aan me zien.

78
00:11:37.640 --> 00:11:47.060
Zeggen moet je deze tekening zien. Kijk hoe kut het is. Het is. Jij zei toch dat het geniaal was? Weet je wel. Prima, kom maar door met je gotcha's en dan ga ik mijn. Dan ben ik een apologist zeg maar.

79
00:11:47.080 --> 00:11:58.651
Dan ga ik uitleggen. Ja, maar ja, maar. En dan? Dan zeg ik ook ja, dit is een cognitief iets.Waar dit systeem gewoon ontzettend slecht in is. Het is ook helemaal niet voor gemaakt. Het is ook geen geheim.

80
00:11:58.892 --> 00:12:03.612
Nee, maar dat betekent niet dat dat systeem niet op de achtergrond allemaal andere systemen kan gaan aanroepen die wel slim zijn.

81
00:12:03.772 --> 00:12:13.952
Ja, en gewoon een team om zich heen verzamelt van andere entiteiten die wel goed zijn in wiskunde. En zo komt het dus uiteindelijk wel in de buurt van dat AGI, dat meer algemeen general intelligence.

82
00:12:13.992 --> 00:12:21.572
Maar dat wordt waarschijnlijk dus een groep AI's die met elkaar als een teampje samenwerken, maar gerepresenteerd worden door één AI. En jij weet het dan allemaal niet op de achtergrond.

83
00:12:21.912 --> 00:12:34.132
Oké, OpenAI komt dus met Strawberry, maar dat zijn een hoop beloftes. Moeten we maar even kijken. En verder vind ik het eigenlijk saai als het nog niet uitgebracht is. Uh uh. GPT-4 Mini is uitgekomen toch?

84
00:12:34.332 --> 00:12:41.932
Ja, een nieuwe mini dus ze hebben al heel veel mini's. Die mini's zijn heel fijn omdat ze veel goedkoper zijn en sneller zijn. Wat is een mini? Een, een klein uh taalmodel? Ja.

85
00:12:41.952 --> 00:12:48.552
Dus heb je minder geheugen nodig, minder kaarten nodig, ergo minder energie, ergo geld. Ja. Uh en je kan het allemaal veel sneller doen.

86
00:12:48.592 --> 00:12:58.572
En heel veel van de taken die OpenAI nu krijgt via hun API door andere partijen die weer op hun bouwen, kunnen prima door een veel kleiner model uitgevoerd worden. En als jij zelf bouwer bent, dan krijg je dat al door.

87
00:12:58.612 --> 00:13:09.352
Want ja, als jij een tiende tot een twintigste van de prijs hoeft te betalen per query, dan. Dus bijvoorbeeld waar ik het voor gebruik in mijn in mijn RSS-reader. Uh kan dus mijn. Waar al mijn nieuws uh binnenkomt.

88
00:13:09.512 --> 00:13:21.152
Daar gebruik ik één app voor. Die heet Reader en die. Normaal gesproken uhm uhm schrijft dan de journalist schrijft dan het intro. Maar een intro van een journalist vind ik niet per se het intro wat ik wil lezen.

89
00:13:21.552 --> 00:13:27.492
Dus deze tool herschrijft automatisch alle intro's zodat ik makkelijker kan kiezen wat ik wil gaan lezen.

90
00:13:27.552 --> 00:13:42.612
Het is alsof je een krant uh voor je hebt waarbij je alle introductie paragrafen uh zelf kan bedenken hoe die geschreven moeten zijn, dus dat het een samenvatting is in plaats van dat die journalist mij iets probeert te verkopen en eindigt met een vraagteken waardoor ik soort van met een soort clickbait achterblijf.

91
00:13:43.172 --> 00:13:47.512
En dat draai- draaide hiervoor op het grote taalmodel van OpenAI.

92
00:13:47.572 --> 00:13:57.092
En nu draait het op Mini, wat in de praktijk dus veel goedkoper is, want het is iedere dag veel nieuws wat erbij komt en dit scheelt mij gewoon uh in de in de rekening aan het eind van de maand. Handig.

93
00:13:57.352 --> 00:13:59.952
En die mini's worden ook vaak ingezet als een soort router.

94
00:14:00.092 --> 00:14:09.892
Oftewel als jij belt naar KPN dan krijg je nu een computer of een mens die dan van tevoren zegt joh, ik moet even weten wat er met jou is, want dan weet ik naar wie je door moet, want die is daarin gespecialiseerd.

95
00:14:09.932 --> 00:14:19.771
Die mini modellen worden nu ook vaak gebruikt als tussenmodellen die dan op de achtergrond alleen wanneer nodig een duurder model aanroepen. Ja, ja, ja, ja. Zo'n economie. Verkeersleider. Ja oké, Anthropic?

96
00:14:20.172 --> 00:14:26.912
Ja Anthropic die. Het is wel grappig, want daarom zat ik net al grapjes te maken aan het begin van: is OpenAI nu nog die koning? Zijn ze nog die frontrunner?

97
00:14:26.992 --> 00:14:39.272
Ik merk zelf als gebruiker van AI dat ik eigenlijk alleen nog maar interacteer met Claude. Dat zegt iets. Ja. Ja. Artie voor Claude. Ja. Milou zit hier hartjes te doen. Ja. Uh, dus dat, dat, dat vind ik opvallend.

98
00:14:39.332 --> 00:14:46.892
Even gewoon als anekdote. N is één, n is drie dan nu met ons drieën. Uhm en er zijn best wat mensen van OpenAI overgestapt naar Anthropic. Ja.

99
00:14:47.132 --> 00:14:55.212
En ik, ik kan me zo voorstellen, want zij hebben nu eigenlijk hun laatste model wat ze hebben uitgebracht is hun midden model. Dus je hebt de mini's, de midden en de grote. Even voor het gemakkie.

100
00:14:55.752 --> 00:15:05.232
Uh, zij hebben alleen nog maar hun midden uitgebracht en hun midden verslaat eigenlijk al de rest in heel veel tests. Dus we zitten nog een beetje te wachten op die grote daarvan. De Claude. Ja, de, de Opus.

101
00:15:05.512 --> 00:15:08.432
Of Opus is het ook. Claude Opus. Ja en. Dus ik ben.

102
00:15:08.652 --> 00:15:18.192
Ik verwacht wel ergens in de komende twee, drie maanden uh Opus, hun grote model en dan uh blijft ie, ja die, die horse race zeg maar of marathon dat, dat rent lekker heen en weer.

103
00:15:18.232 --> 00:15:28.632
Ieder rondje tussen die tussen die twee groten. Ze hebben geen spectaculaire dingen gelanceerd, maar ik zie wel dat ze wat ik heel leuk vind bij Anthropic. Daarom raad ik ook luisteraars aan. Log in, ga dat testen.

104
00:15:28.732 --> 00:15:40.352
Open Claude. Omdat ze best wel veel leuke dingen toevoegen aan hun uh interface, gewoon aan hun software online. Claude.ai zeg maar. Bijvoorbeeld die artifacts een tijd terug, uh, maar nu ook steeds meer projects.

105
00:15:40.692 --> 00:15:52.112
En ik vind het dat ze dat best wel leuk doen op een andere manier dan OpenAI het doet. Dat vind ik grappig. En echt wel een serieuze speler nu inmiddels. Wat zijn artifacts? Heeft- Stukjes, stukjes uh, uh code.

106
00:15:52.172 --> 00:15:59.972
Dus als jij zegt: ik wil een, uh klein snake spelletje maken, dan maakt hij dat hele spelletje voor je en dan heb je het spelletje in beeld en dan kan je het ook meteen spelen. Ja, ja.

107
00:16:00.012 --> 00:16:06.632
Als je dan vraagt maak een compleet CRM-pakket voor me waar ik al mijn contacten in kan bijhouden, zegt ie. Dat is niet echt een artifact, Milou. Ja, oké. Dat is een compleet ding.

108
00:16:06.872 --> 00:16:15.552
Het is best wel een slim ding, want eigenlijk maken ze dus dingen waar ChatGPT gewoon een eindeloze rij chat is, van boven naar beneden, alsof je één pagina hebt.

109
00:16:16.212 --> 00:16:24.832
Maakt Anthropic met uhm, uh, met artifacts eigenlijk een soort split screen. Twee schermen. Links is het scherm waar je praat en rechts is het scherm waar je het resultaat ziet.

110
00:16:24.892 --> 00:16:34.312
Dus als jij een column aan het schrijven bent, dan zie je rechts je column. Dan zeg je links zeg je: nou, vervang alle jes door u's of weet ik veel. Uh, maak, maak de eerste alinea korter. Ja.

111
00:16:34.612 --> 00:16:38.692
Dan hou je het overzicht doordat je die hele column rechts in beeld kan houden. Moet je daarvoor betaalde member zijn?

112
00:16:38.732 --> 00:16:49.342
Want dat ben ik nog niet, want ik als ik naar Claude.ai ga dan heb ik gewoon een soort ChatGPT behalve dat het er mooier uitziet. Artifacts is wel onderdeel van. Of het ook betaald is. Plus of zo heet het bij hun.

113
00:16:49.352 --> 00:16:55.851
Ik denk het wel, maar dat, nou, dit vind ik wel de moeite waard. Nee, je kan ook een YouTube. Ze hebben ook een leuk YouTube-channel vol met. Dan kan je het gewoon checken. Ja, ik ga het wel even kijken.

114
00:16:55.872 --> 00:17:06.032
Heb je hem zo door hoor. Het is wel echt de moeite waard hoor. Helemaal als broodschrijver. En, en, maar zelfs uh, als, als iemand die er dus nog niet voor betaalt heb ik er al heel veel aan. Ja, ja.

115
00:17:06.072 --> 00:17:17.212
Dus ik ben al overtuigd. Ja, ja. Oké. Ten slotte, want we kunnen eindeloos doorgaan over AI bedrijven, maar je moet ergens de grens trekken. Google. Ja. Deze zomer. Ja, het gaat natuurlijk allemaal om de Pixel.

116
00:17:17.252 --> 00:17:22.152
Daar gaan we het ook nog over hebben. De event of het Pixel event. Het is nu- Dat is de telefoon, hè? Ja, de telefoon.

117
00:17:22.232 --> 00:17:28.762
Dat is goed dat je dat zegt, want daar zitten we nu natuurlijk een beetje mee van: wat is de hardware, wat is de software? AI is, is.

118
00:17:28.792 --> 00:17:35.852
Ik bedoel er zit een hardware component aan met datacenters en chips en Nvidia en dat hele verhaal. Maar wij als eindgebruikers praten vooral met software.

119
00:17:36.172 --> 00:17:44.092
En als er dan een nieuwe telefoon uitkomt, dan heeft die telefoon wel die software, maar de vorige niet. En dan moeten we soms uitleggen of dat echt zo is of, of, of dat het niet zo is.

120
00:17:44.372 --> 00:17:52.492
En ik vond het nu interessant dat eigenlijk dat hele event van Google draait om die apparaten, maar ook weer bijna niet. Het is soort van oké, hier zijn de nieuwe telefoons.

121
00:17:52.592 --> 00:17:59.272
Lijken heel erg op de iPhone, want dat vinden jullie allemaal mooi. Dat zeg ik even cynisch, maar kom op, je hebt zelf ogen. Het zijn gewoon iPhones met een ander dingetje op de achterkant.

122
00:17:59.332 --> 00:18:10.092
Dat is blijkbaar hoe je dat differentieert. Prima. Of differentieert. Maar en daarna vlug praten over alle AI features. Dat, dat vind ik een interessante beweging van weg van hardware vol op, op, op software.

123
00:18:10.302 --> 00:18:19.468
Ja.En verder heb ik vanuit Google. Ja, er zijn wat kleinere. Ook daar weer een mini model uit. Mini modelletje. De Gemma's zijn dat. Dat zijn dus de Gemini's, maar dan open de Gemma's.

124
00:18:19.808 --> 00:18:28.728
Maar niet, niet dat ik echt dacht van oké, wow, nu gebeurt er iets, iets heel geks. Behalve dan misschien nog laatst. We hebben het hele lijstje gehad. Microsoft Phi 3.5. De Phi.

125
00:18:28.748 --> 00:18:35.928
De Phi-modellen van Microsoft zijn vooral klein. De mini's zijn vooral ontzettend krachtig. En ze hebben nu Phi-3.5 Mini Vision uitgebracht.

126
00:18:35.968 --> 00:18:47.308
En die is voor wat hij is, qua wat je ervoor nodig hebt qua hardware en dat je hem gewoon thuis kan draaien en gewoon menukaarten kan geven in Japan en Japans en dat hij gewoon die prijzen eruit trekt voor je.

127
00:18:47.368 --> 00:18:58.588
Ontzettend gaaf! We zien steeds meer van die dingen die je alleen betaald bij OpenAI kan, die je ineens thuis op je laptop kan, oftewel ook op je mobiel. Mhm, mhm. Microsoft heeft echt de zoek op die mini.

128
00:18:58.868 --> 00:19:09.228
Zij gaan echt daar proberen heel erg de baas te zijn. En hoef je daar niet voor te betalen. Nee. O. Ja, ja, je moet ervoor betalen in de energie. Je energiekosten. Geen abonnement. Je betaalt.

129
00:19:09.268 --> 00:19:22.428
Jouw laptop kan dat draaien. Ja, dan hebben we OpenAI niet meer nodig. Voor sommige stukjes. Ja, ja. Denk dan ten slot. Want je had het net al over dat er mensen overgingen van OpenAI naar andere bedrijven.

130
00:19:22.468 --> 00:19:32.708
Anthropic is er één van, maar een belangrijk OpenAI-figuur, Ilya Sutskever, bekend van de Coupe, die is overgestapt naar zijn eigen bedrijf. Dat kan ook gewoon dat je je eigen bedrijf op komt.

131
00:19:32.728 --> 00:19:47.348
Dat heet Safe Super Intelligence. Hoeveel hebben ze opgehaald? Nou, een miljard. Een miljard? Ja, ja, van de grote venture capital bedrijven dus. Sequoia en Dreesen Horowitz. Het standaard rijtje. Ja, ja, dat een beetje.

132
00:19:47.408 --> 00:19:55.948
En dat is op zich wel bijzonder, want ja, ze hebben nog geen enkel product. Er zijn nog geen inkomsten en blijkbaar kun je er wel een waardering op plakken. Van een miljard.

133
00:19:56.128 --> 00:20:05.238
Ja, dit is wat het waardering miljard hebben ze een miljard opgehaald. Of ze een miljard opgehaald. Opgehaald. Maar volgens mij waardeert hij het op nog meer. Ja, dat hoop ik voor ze. Vijf miljard. Vijf, hè?

134
00:20:05.268 --> 00:20:13.088
Ja, dat is het logisch. Ja en nee. We weten dat er sowieso natuurlijk heel veel geld naar AI gaat, maar dat zijn allemaal toch wel. Ja, maar hij heeft producten.

135
00:20:13.268 --> 00:20:22.128
xAI haalt ook heel veel geld op, maar dat heeft ook gewoon dingen die daadwerkelijk op een gegeven moment geld in het laadje gaan brengen. Ilya Sutskever heeft zijn, zijn legacy, hè. Dat is ook wat waard.

136
00:20:22.168 --> 00:20:28.348
Ja, en ik denk voor een investeerder als je durfinvesteerder bent met diepe zakken, want zoveel zakken worden er op elkaar gestapeld hier.

137
00:20:28.808 --> 00:20:35.268
Kijk, stel dat er vijf procent kans is dat hij met een groep mensen om zich heen wel een AGI-achtig ding uitvindt.

138
00:20:35.548 --> 00:20:45.068
Ja dan, dan moet je een soort van investeren als je, als je als investeerder denkt ja, want dat is een prima kansberekening. En daarom krijg je dit soort bizarre valuations. Want het zal hem maar lukken. Ja.

139
00:20:45.248 --> 00:20:55.288
Dat is het volgende grote superbedrijf in potentie. Maar nog even heel even. Wat gaat hij dan precies maken? Want het wordt allemaal gegooid op het creëren van super veilige AI. Ja.

140
00:20:55.468 --> 00:21:03.268
Maar zijn dat dan ook super veilige producten? Of gewoon ja, wat moet ik me daar nou precies bij voorstellen? Goede vraag. Wat is veilige AI? Wat is veilige AI?

141
00:21:03.328 --> 00:21:13.848
Nou, ik denk dat in, als je het over super intelligence gaat, want dat zit natuurlijk ook in hun naam Safe Super Intelligence is dat je voorbij de mens gaat. Dus je krijgt iets wat wij eigenlijk niet meer begrijpen.

142
00:21:13.868 --> 00:21:18.668
Die, ja, boeken voor ons moet gaan schrijven die we eerst moeten lezen om het weer te kunnen begrijpen en taal gaat uitvinden en zo.

143
00:21:18.728 --> 00:21:28.708
Dat kan je uren over praten hoe dat er dan uit zou zien, hoe wij weer gaan communiceren met iets wat zoveel slimmer is dan dat wij zelf zijn. Maar dat betekent ook dat dat kan manipuleren, dat het ons kan manipuleren.

144
00:21:28.728 --> 00:21:32.888
Dat het alle boeken heeft gelezen over how to win and influence people en noem ze allemaal maar op.

145
00:21:33.508 --> 00:21:42.288
En, en als je het safe wil maken moet je dus en academisch wetenschappelijk nadenken over wat is je definitie van veiligheid en hoe controleer je dat dan?

146
00:21:42.348 --> 00:21:47.608
En als je dat gaat controleren, hoe controleer je dan dat het controleren goed gaat, enzovoorts, enzovoorts, enzovoorts.

147
00:21:47.768 --> 00:21:56.308
Uiteindelijk kan ik me voorstellen dat wat zij zouden kunnen uitvinden is een framework in theorie en daarbij ook misschien wel algoritmen en AI om AI te controleren.

148
00:21:56.438 --> 00:22:09.588
Misschien zelfs wel hardware die weer door andere partijen ingezet gaan worden om te zeggen wij draaien jullie AI-antivirus of firewall-achtige software die uitgevonden is door Safe Super Intelligence.

149
00:22:10.008 --> 00:22:19.868
Maar ik denk dat safe te maken heeft met human alignment. Dus doet het wat wij willen en is het aligned met wat de mensheid wil. Als we dat al weten met elkaar, maar in ieder geval niet de hele wereld opblazen. En

150
00:22:20.768 --> 00:22:28.327
kan, kunnen we dat ook controleren of dat aligned blijft? Ja. Dat is ontzettend moeilijk. Een minimale voorwaarde dat we niet de wereld.

151
00:22:29.028 --> 00:22:40.768
Ik zag Ethan Mollick op Twitter zeggen: één miljard is veel geld, maar Meta gaf vorig jaar dertig miljard uit aan Nvidia-chips alleen al. Dus even om om, om, om de balans op te maken daar.

152
00:22:41.228 --> 00:22:52.988
En hij zegt: Big bet that scaling is in fact not all you need. Dus hij zegt: het is eigenlijk dus, uh, ja, gedurfd bijna zou je kunnen zeggen om maar één miljard op te halen.

153
00:22:53.248 --> 00:22:58.308
Want je kan je blijkbaar als AI-bedrijf op andere dingen onderscheiden dan: wie heeft de meeste Nvidia-chips?

154
00:22:58.568 --> 00:23:08.328
Jazeker, en ik denk in dat opzicht waar ze boos over waren, ze, en daar bedoel ik mee het groepje wat in stukjes, uit stukjes uit elkaar gevallen is bij OpenAI, deels bij Anthropic is gaan werken, deels bij Ilya.

155
00:23:08.358 --> 00:23:10.888
Zijn bedrijf. En deels op andere plekken, is dat

156
00:23:12.028 --> 00:23:23.308
zij heel veel, wel hardware nodig hadden om hun wetenschap te kunnen doen, om hun onderzoek te kunnen doen, om te kunnen testen, empirisch, van oké, we hebben een idee over hoe je safety controleert.

157
00:23:23.728 --> 00:23:31.228
Kunnen we een klein modelletje maken en kijken of we die in de gaten kunnen houden. En die twee dingen moet je wel uiteindelijk wel capaciteit voor krijgen. Ja, dat wilde zijn.

158
00:23:31.288 --> 00:23:38.848
Altman wilde daar geen prioriteit aan geven. Die zei: ik wil alleen maar op nieuw product. Vooruit. Vooruit, ik wil launchen een, daar, daar zat heel veel frictie.

159
00:23:39.388 --> 00:23:48.528
En wat jij nu zegt, Alexander, daar zijn, er is heel veel discussie nu, want we hebben het net over de mini's gehad. De GPT-4 Mini, Phi 3.5, klein model.

160
00:23:49.088 --> 00:23:56.648
Er, er, er gonst een beetje rond die wereld waarin iedereen met AI bezig is en vooral taalmodellen maken en visie modellen.

161
00:23:57.368 --> 00:24:02.288
Zou het niet zo kunnen zijn dat dit gewoon hele inefficiënte lompe dingen zijn die we hebben gebouwd?

162
00:24:02.708 --> 00:24:14.748
En als we er meer over leren dat, dat we straks mini's hebben die even krachtig zijn als de grote van een jaar of twee geleden. En veel lijkt daar nu op. Ja, het is gewoon zel je eigen wedstrijd uiteindelijk.

163
00:24:14.888 --> 00:24:19.380
Ik haal even een zel-termen erbij, maarZe gaan als je, als je niet,

164
00:24:20.560 --> 00:24:31.440
als je, als je in die wedloop, die ratrace meegaat van iedereen gaat zoveel mogelijk shippen en zoveel mogelijk nieuwe modellen telkens maken, dan zou er wel eens een afslag kunnen zijn die dus misschien Sutskver nu vaart,

165
00:24:32.440 --> 00:24:38.940
waar die misschien wel veel beter uitkomt. Nou ja, dat is de weddenschap. Ja. Het slecht nieuws voor Nvidia in dat geval. Als het met minder chips aankan.

166
00:24:39.420 --> 00:24:49.480
Nou en daar heb je, nee precies, dan heb je ook nog eens de hele markt van, laten we die voor een latere keer parkeren van, het hoeft niet eens op een GPU van Nvidia per se. O ja. Maar daar gaan we nog wel eens induiken.

167
00:24:49.540 --> 00:24:55.000
Oké. [muziek] Ja, we hoorden al even, de Pixel-telefoon werd genoemd.

168
00:24:55.560 --> 00:25:05.280
Google introduceerde deze, deze zomer opvallend vroeg drie nieuwe Pixel-telefoons, dus voorzien van een nieuw design wat een beetje op Apple lijkt, Wytse zei het al. Ja, het zijn weer clones.

169
00:25:05.360 --> 00:25:08.740
En voor het eerst wordt er dus volop gepraat over AI op de tele-telefoons.

170
00:25:09.120 --> 00:25:22.680
Ja, en het is waar wat Wytse zegt, namelijk dat hardware events die vaak in september zijn of dat nieuwe iPhones, nieuwe Android-telefoons uitkomen, vaak gaan over nieuwe camera's of andere hardware features.

171
00:25:23.140 --> 00:25:24.820
En nu ging het heel veel over AI.

172
00:25:25.060 --> 00:25:41.240
Ik heb me eerder dit jaar door Samsung laten vertellen dat zij met, in de marketing van hun telefoons best wel veel problemen hadden om te blijven vertellen waarom je elke keer een nieuwe Galaxy-telefoon moest kopen en dat onverwacht succesvol was.

173
00:25:41.520 --> 00:25:50.380
Samsung Galaxy with AI. Dat zag je ook overal in de bushokjes hangen voor deze zomer. Dat werkte heel erg goed, omdat Samsung eigenlijk circle to search.

174
00:25:50.700 --> 00:26:01.540
Dat was een soort van je hebt, weet ik veel, je, je, je ziet een foto en je, van iemand met vette schoenen en dan denk je: ik wil die schoenen hebben. Dan kun je dus je, de onderkant van je telefoon ingedrukt houden.

175
00:26:01.980 --> 00:26:11.260
Dan maakt je telefoon een screenshot. Dan kun je een, een rondje tekenen rondom die schoenen en dan gaat dit, dat, gaat hij dat zoeken- Ah. Op Google. Dus dan kun je die schoenen kopen. Dat is een beetje het idee. Ja.

176
00:26:11.380 --> 00:26:18.570
En dat kun je niet alleen met schoenen doen, maar ook met andere dingen. En zij waren helemaal verbaasd hoe goed dat werkte in de marketing.

177
00:26:18.660 --> 00:26:22.200
Iedereen had het daar over en vond dat een reden om een nieuwe Samsung telefoon te kopen.

178
00:26:22.240 --> 00:26:33.400
En ik denk dat Google daar een cue van heeft genomen, van het succes bij, bij Samsung en eigenlijk hun hele, wat normaal gesproken een hardware event is, zijn gaan praten over de AI-features. Heel opvallend.

179
00:26:33.840 --> 00:26:44.200
En er zijn dus een aantal nieuwe AI-features die, die op zich weinig te maken hebben met hoe wij tot nu toe over AI praten, namelijk modellen, chatbots en dat ze dan slimmer en slimmer worden.

180
00:26:44.220 --> 00:26:51.720
En dat ze kunnen, weet ik veel, kunnen programmeren of zo, waar wij het de hele tijd in deze podcast over hebben. Nee, het gaat over hele praktische toepassingen voor gewone mensen, zoals:

181
00:26:52.680 --> 00:27:02.080
je maakt een foto van iemand en dan sta je altijd zelf achter de camera, waardoor je ne-nooit op groepsfoto's staat. Ja. Dat hebben ze opgelost doordat jij dan eerst de foto maakt.

182
00:27:02.220 --> 00:27:08.940
Dan vraag je aan mensen in de foto om één, één persoon even jouw plek in te nemen zodat jij ergens anders kan gaan staan.

183
00:27:09.160 --> 00:27:17.540
Dan maakt die persoon nog een foto terwijl jij op je plekje gaat staan en dan voegt AI die twee foto's samen, waardoor het alsnog een groepsfoto wordt. Ja, dat spreekt natuurlijk enorm tot de verbeelding.

184
00:27:17.560 --> 00:27:29.500
Dat spreekt veel meer tot de verbeelding, dat iets wat mensen allemaal napraten en dan zeggen: dit is nieuw en het kan met AI en dat is, nou, slim. Een andere feature is dat ze geluid verbeteren in video's.

185
00:27:29.580 --> 00:27:37.620
Dus wat, ze kunnen met, als jij een video hebt gemaakt op je Pixel-telefoon, dan kun je de verschillende geluidslagen isoleren van elkaar met AI.

186
00:27:37.660 --> 00:27:48.080
Wat betekent, als jij op een terras zit en weet ik veel, met je kinderen en je kinderen doen iets grappigs, maar er is heel veel omgevingsgeluid. Dan kun je dus letterlijk het omgevingsgeluid aantikken en die

187
00:27:49.300 --> 00:27:58.940
volumeschuif omlaag trekken, waardoor opeens de wind of ander geruis op de achtergrond opeens verdwijnt en je dus opeens- Wow. Crystal clear geluid hebt van het gesprek wat je voert.

188
00:27:59.040 --> 00:28:05.100
Maar werkt het ook als ik, want ik, ik zat laatst dan op een boot en dan maak je een filmpje, maar die wind, die voorkomt gewoon dat je iets verstaat.

189
00:28:05.130 --> 00:28:12.880
Maar dat heeft toch ook te maken met, dat, dat verpest toch gewoon je hele geluid? Dat kun je toch niet isoleren? Betere microfoons. Ja, nee. Drie op of zo.

190
00:28:12.920 --> 00:28:21.810
Dus die kunnen ook nog, net als met noise cancelling zeg maar, kan je ook noise cancellen door drie microfoons die net op een andere plek zitten. Dan kan je toch herkennen- Ik weet niet of ze dat gebruiken.

191
00:28:21.860 --> 00:28:31.290
Het zou kunnen hoor, dat ze ook hardware gebruiken, maar ze verkopen het als een softwarefunctie- Ja. Die dus herkent: wat is windgeluid? Zet dat zachter en doe vervolgens, zet die stem harder.

192
00:28:31.300 --> 00:28:41.240
Ja, jij bedoelt: zit die AI in een chipje- Ja. Of zit die AI in een stuk software of- Of noemen ze het alleen maar zo. Het klinkt als AI. Ja, ze noemen het AI en dat is genoeg om telefoons te verkopen.

193
00:28:41.700 --> 00:28:55.760
Maar het ding waar ik het meest enthousiast over ben, is een functie die ze, die is onderdeel van de Gemini-assistent. Die heet Gemini Live en dat is een, eigenlijk de Google-versie van wat OpenAI's stem is.

194
00:28:55.880 --> 00:29:02.540
Die, die- Die OpenAI dus nog niet gelanceerd heeft. Nog niet gelanceerd heeft en die Google nu wel gelanceerd. Dus die draait gewoon op telefoons.

195
00:29:02.620 --> 00:29:10.740
Als je hem in ieder geval op het Engels zet, want hij spreekt alleen maar Engels. Ja. En dat kan ik wel even laten horen- Doe. In een, in een live demo. Oké. Dus ik zet live to talk aan.

196
00:29:12.160 --> 00:29:26.680
We're going to act like we are a university and that you are a very quirky university lecturer and you are tutoring me on concepts in AI and you are going to do a really interactive lesson where you teach me the concept of super alignment, which you just talked about it.

197
00:29:27.040 --> 00:29:40.440
Make it really practical and vivid. Don't talk for too long and end every, every three sentences with a question to make it super interactive. Let's go. All right, let's get this tutorial on super alignment started.

198
00:29:40.760 --> 00:29:56.920
First things first, have you ever stopped to think about how we get AI systems to actually do what we want? I mean, really want, like follow our goals without us having to micromanage every little thing. Ja, oké.

199
00:29:57.640 --> 00:30:05.760
Wel eens van gehoord. Dat is een vraag. Moet je beantwoorden. All right, well, that's where super alignment comes in. It's like teaching an incredibly smart child to play chess.

200
00:30:06.180 --> 00:30:19.860
Not just by showing them the moves, but by getting them to understand the whole game. Why do you use the chess metaphor? Great question. I like the chess metaphor because it highlights the complexity of the situation.

201
00:30:19.920 --> 00:30:29.436
It's not enough to just know how to- Oké, thank you. We're out of time. Thank you. [lacht]Nou Alexander, wat onbeleefd. Glad we could start this lesson on super alignment.

202
00:30:29.776 --> 00:30:41.296
Remember it's all about getting those AI systems to share our goals. Nou ja, goed, zo gaat dat door. Er zijn dus een aantal dingen die opvallen. Hij laat pauzes vallen, zoals OpenAI's versie dat ook doet.

203
00:30:42.156 --> 00:30:51.336
Zelfs in zinnen waar hij even lijkt na te denken. Hoorde je dat? Ik vond dat. Ik vind dat soort dingen echt uncanny. Nee. Of was het om ons te laten nadenken? Want hij was. Ja, dat ook. Hij liet een stilte vallen.

204
00:30:51.436 --> 00:31:01.376
Ook tijdens. Ja, precies, ik moest praten. Maar dat had ik ook geprompt. Dat die stiltes gingen vallen. Precies daarom. Ja, dus dat deed hij keurig. Nee, maar ook in zinnetjes zelf dat hij eventjes soort van.

205
00:31:01.596 --> 00:31:12.236
Er zit een soort van veel menselijkere intonatie weer in. Dit is niet de Google Assistant stem die we gewend waren van een wekker zetten, zullen we maar zeggen. Ja. Ik vind het zo grappig dat ik zeg maar kijk, ben ik.

206
00:31:12.276 --> 00:31:21.656
Ik ben toch niet de enige die nu echt denkt wat de f. Ja, insane. Dit is totaal insane. Ik heb die. Ik heb die demo's gezien. Ik heb dit ook gezien. Nu zie ik het jou hier live doen.

207
00:31:21.676 --> 00:31:33.436
Ik ben zelf Apple gebruiker, dus wij moeten nog zestien dagen wachten. EU het goedkeurt. Ja, dat duurt nog even. Maar kom op. Weet je, 2022 was de eerste release van GPT, een soort van shitty chatbot die ons.

208
00:31:33.656 --> 00:31:40.836
Ja, je hebt gelijk. En dit is wat, wat? Wat is dit nou? Heel goed Wytse. Af en toe moet je een monumentje opzetten voor de voor de snelheid. Het is ook. Het is insane.

209
00:31:40.856 --> 00:31:47.736
De discussie die ik bedoel als er dan gezegd wordt ja, is het allemaal nog wel zo spectaculair? Hope, hype, hype, hype.

210
00:31:48.116 --> 00:31:55.816
Ja, ik bedoel ja, dit is nog niet het lekkere Nederlands, want heel vaak landt het toch pas als het je als het je moerstaal is. En dat begrijp ik, want dat ligt dichter bij je hart.

211
00:31:55.896 --> 00:32:04.076
Ik heb als ik Eleven Labs gebruik en daar een goede Nederlandse stem selecteer, heb ik ineens mijn hele familie om die zeggen AI gaat gebeuren. Ja, wat we niet hebben in het Engels.

212
00:32:04.136 --> 00:32:10.736
Ja, want het klinkt minder als een robot. Ja, en dit. Dit ja, wat ik hier allemaal hoor aan kleine. Ik vond ook die pauzes ook wel lekker.

213
00:32:10.816 --> 00:32:21.236
Bijna uncanny dat ik dacht van komt ie nog, moet ik en dat jij het onderbreekt et cetera. Kijk, ik denk dat. Onderbreken werkt ook echt goed. Ja, ik denk dat we. We zitten qua AI gewoon heel erg in die MS-DOS era.

214
00:32:21.316 --> 00:32:33.146
Oftewel heel veel AI is nog echt alleen maar voor nerds die snappen wat je er allemaal overheen moet bouwen om ermee te kunnen werken. En langzaam kruipt het toe naar de mainstream. En dit ja, wil je AI gebruiken?

215
00:32:33.156 --> 00:32:42.776
Wat moet ik doen? Ja, praten met je telefoon alsof het je buurman is. Dat wel heel veel mensen dat kunnen. Ja, nee. Het is superslim om het zo praktisch te maken. Theorie dat spreekt mensen gewoon.

216
00:32:42.816 --> 00:32:52.776
Ja, spreek jullie misschien aan, maar mensen willen gewoon weten hoe kan ik het gebruiken? Natuurlijk. En er was één, één grappig ding, want dit live to talk ding werkt dus best wel goed. Maar ik heb.

217
00:32:52.956 --> 00:33:02.496
Op een gegeven moment dacht ik ga vragen of hij ook kan zingen. Ik ben ben. Ik ben dan benieuwd hoe ver kan je dit model pushen om dingen te doen waar Google niet mee adverteert, maar die het stiekem wel kan?

218
00:33:03.256 --> 00:33:08.136
En, en zingen kan hij echt heel slecht. Het wordt dan een soort spoken word ding. Dat slaat nergens op.

219
00:33:08.196 --> 00:33:17.976
Toen zag ik een tweet weer van Ethan Molik die hetzelfde probeerde bij het model van OpenAI, wat dus nog niet uit is, maar voor sommige influencers wel geopend is. Die deed dus hetzelfde.

220
00:33:18.216 --> 00:33:28.316
Deze stem, maar dan de Scarlett Johansson OpenAI versie, vroeg of hij kon zingen en dat klinkt dan zo. Luister mee. All right for an Andrew Lloyd Webber inspired style.

221
00:33:28.736 --> 00:33:43.556
How about in the shadows of the night where phantoms sing and chandeliers take flight. The music of the night unveils the mystery. Als je niet laten kunnen zingen. Jongens. Jongens. Dit.

222
00:33:43.596 --> 00:33:55.936
Jongens, dit is wiskunde op een computerchip en het zingt naar ons. Ja, ja. Het is ongekend. En hij had dus ook per ongeluk. Of tenminste, dat had hij helemaal niet gevraagd, maar hij had hij.

223
00:33:56.236 --> 00:34:02.296
Volgens mij ging vroeg hij om rap of zo. Ik weet het niet precies meer, maar toen had dat ding ook zelf bedacht om er een beat achter te zetten.

224
00:34:02.816 --> 00:34:13.396
Dus het spraakmodel maakte opeens muziek en toen zei hij ook zet iets harder die beat. Ja, geen probleem, zet die beat harder. En ik denk weet je, voor een van Suno zijn we het inmiddels gewend of zo.

225
00:34:13.456 --> 00:34:23.036
Van die audio generatoren. Die zijn ervoor gemaakt. Die zijn ervoor gemaakt. En het is dan toch op het moment dat je het ontdekt in zo'n in zo'n spraakmodel ben je toch weer even taken aback. Soort van.

226
00:34:23.276 --> 00:34:34.036
Hoezo kan het muziek maken? Ja, en best nog wel. Niet niet super onprettig om naar te luisteren. Nou, ik vond dit. Ja, dit heel heftig. Bijna mogelijk. Ik heb geen smaak. Ja, drie uur en luisteren.

227
00:34:35.196 --> 00:34:47.416
Wiet voor Wietse is het allemaal prima. Nieuwe zomerhit. Hoe dan ook, dat zijn de nieuwe Pixel telefoons die allemaal nu deze week uitkomen. Het komt niet in de buurt met wat Apple belooft met Apple Intelligence.

228
00:34:47.856 --> 00:34:56.676
Want wat die wat die AI-assistent dus doet qua Apple Intelligence belooft dus te zeggen: hé, hoe laat komt mijn moeder aan op het vliegveld met haar vlucht?

229
00:34:57.276 --> 00:35:06.336
Boek alvast een taxi en daar raadpleegt hij dan vier databases voor. Dat kan Google nog niet. Het is nog. We zijn nog niet in de fase waar, waar, waar ik zo op hoop.

230
00:35:06.456 --> 00:35:14.696
Namelijk dat je je Gemini of Apple Intelligence kan gebruiken om andere apps aan te roepen en op de achtergrond dingen voor je uit te voeren.

231
00:35:15.056 --> 00:35:24.916
Dat is niet waar het nog over gaat en dat is ongetwijfeld ligt dat in de pijplijn. Maar het gaat nu heel erg over AI in bestaande apps die gewone mensen iedere dag gebruiken.

232
00:35:24.976 --> 00:35:30.656
En misschien is dat eigenlijk ook helemaal niet zo heel gek dat daarmee begint. Ze willen telefoons verkopen ook. Zal ik weer een bumper doen? Doe.

233
00:35:33.896 --> 00:35:41.256
Ja, ik ga nog toch even kort het over robots hebben, want dat is natuurlijk ja, voor mij AI zoals het bedoeld is.

234
00:35:41.856 --> 00:35:53.216
Vroeger zag ik dan een robot voor me en nu blijkt er deze zomer best wel veel gebeurd op het gebied van robots. Althans, we hebben veel. Ik heb veel robots kunnen zien op, op X, op YouTube. Zo is er.

235
00:35:53.396 --> 00:36:07.616
Ik neem jullie even mee over drie robots. Een tandarts robot dus. Ja, een, een tandarts dus. Ja, dat is eigenlijk een robot. Die kan gewoon een operatie in de mond uitvoeren. Er is een speciale procedure die duurt.

236
00:36:07.676 --> 00:36:17.436
Voor mensen duurt hij 2.00u. Maar die robot kan het in 15 minuten. Dat is het voorbereiden van tanden voor kronen. Dat is blijkbaar heel ingewikkeld. Dat ding door je mond bewegen. Fucking eng joh.

237
00:36:17.786 --> 00:36:25.316
Maar dit is dan een arm die je. Die. Ja, zit gewoon. Ik heb het plaatje gezien. Het ziet eruit als een robotarm. Een robotarm? Ja, ze hebben hem niet het uiterlijk van een tandarts gegeven.

238
00:36:25.456 --> 00:36:36.336
Zit jij dan zelf vast in een soort van. Nee. Van een soort van ijzeren ding waardoor je niet per ongeluk beweegt, waar die robot alsnog je tandvlees openhaalt. Dat is niet wat ik heb gezien op de foto. Zo eng.

239
00:36:36.396 --> 00:36:45.036
Ja, het is het Bostonse bedrijf Perceptive dat dit heeft gemaakt en dat is echt van 2.00u naar een kwartier. Dat is echt waanzinnig snel.

240
00:36:45.176 --> 00:36:54.453
Ja, en het is helemaal goed gegaan.Maar goed, het moet nog wel allemaal goedgekeurd worden ook voordat het echt natuurlijk in de praktijk komt. Maar mensen die bang waren voor de tandarts en dan denk ik.

241
00:36:54.964 --> 00:37:05.124
Ik weet niet of dit het beter maakt. Nee oké, dat weet ik ook. Naar je gezongen tijdens de operatie die tien keer zo snel gaat. Ja, nou goed. En dan is er nog een andere robot bedrijf.

242
00:37:05.344 --> 00:37:20.604
De figure of dat is een robot, de figure O2 Humanoid Robot. Dat is een nieuwe geavanceerde mensachtige robot die niet alleen zelf kan werken, in welke omgeving dan ook. Ook in de uitdagende omgevingen. Maar

243
00:37:21.704 --> 00:37:30.884
hij kan ook een potje kletsen met, met mensen, dus het is een soort van ja collega. En wat is uitdagende omgeving? Ja, goeie vraag. Misschien een fabriek of zo. Of.

244
00:37:31.404 --> 00:37:39.044
Ja, die die moeilijk te voorspellen is, want dat, dat is natuurlijk. Al dit soort dingen zijn voorspellende algoritmen. Of het nou woorden voorspelt of de volgende noot die gezongen moet worden.

245
00:37:39.344 --> 00:37:48.184
En die action models zoals die heten, dat zijn dus welke beweging moet ik maken om mijn evenwicht te houden? En als er dan een hoop stenen voor me ligt, hoe kom ik over een hoop stenen heen in zo'n fabriek?

246
00:37:48.664 --> 00:38:00.424
Ja, het is met al dit soort dingen alles gaat goed tot het niet goed gaat. Dit is echt een Cruijffiaanse uitspraak, maar dat het ineens niet meer past binnen de voorspelling. En dan loopt het vaak helemaal vast.

247
00:38:01.044 --> 00:38:12.584
En dat is dus de. De uitdaging is om die robots door parcours heen te halen die ze nog nooit hebben gezien. Oké. Ja. Nou en dan is er nog de robot die straks bij jou in huis komt. Het is een soort butler

248
00:38:13.524 --> 00:38:25.784
en dat is een soort hulpje voor alle taakjes. Ik heb het. Nou, het is even. Het is van one X Technologies. Dat is een een, een een startup die wordt gebackt door open AI. Neo Beta heet het.

249
00:38:26.364 --> 00:38:37.884
En die robot, die kan dus de vaatwasser uitruimen. Of die kan een tas voor je oppakken en die aangeven. Of die kan zijn arm om je heen slaan en zwaaien. Ik heb daar de demo's van gezien.

250
00:38:38.124 --> 00:38:47.584
Ik moet zeggen, het ziet er wel echt. Het ziet eruit alsof er een soort mens in een pak zit. Of het ziet eruit alsof het door een computer is gemaakt. Het ziet er zo nep uit dat ik denk van ja,

251
00:38:48.604 --> 00:38:56.944
worden we hier nou, worden we hier nou voor de gek gehouden? Verwarrend is ook dat voor mij bij Tesla destijds ook daadwerkelijk iemand in pak opkwam. Wat dan weer een grapje was, maar daardoor was iedereen in de war.

252
00:38:57.044 --> 00:39:09.364
Ja, veel, veel van wat er in robotica land aan de hand is, is waar. Als in het gaat gewoon echt wel hard de laatste twee, drie jaar. Ik zit nu wel nu je dit zegt te denken een multi purpose robot.

253
00:39:09.374 --> 00:39:14.544
Ik bedoel, waarom zou die niet alleen de vaatwasser uitruimen, maar ook niet tandarts zijn? Dan kan je zeggen daar heeft hij tools voor nodig.

254
00:39:14.564 --> 00:39:20.424
Maar zo'n kitje kan je toch gewoon even thuis laten bezorgen en dan weer terugsturen. Dus wie weet wat die dingen allemaal voor je.

255
00:39:20.484 --> 00:39:29.804
Wij zitten ook heel erg te denken in expertises en dan moet je naar die persoon toe en dat gebouw toe. Maar als dat ding bij jou thuis general is en dan. Ik heb even de tandarts programma gaat loud voor je.

256
00:39:30.044 --> 00:39:41.664
Dat model heb ik even geladen. Ga maar liggen en daarna ga ik. Gaan we zingen. Dezelfde robot die je vaatwasser uitruimt gaat je kronen vervangen. Nou, dat is een zeer onprettig idee. Niet vertrouwen.

257
00:39:41.704 --> 00:39:48.684
Maar even op bed liggen. Maar goed, als je het. Als je het ziet. Ik zou echt iedereen aanraden om even op YouTube naar die filmpjes te kijken van wat die robots tegenwoordig allemaal doen.

258
00:39:48.724 --> 00:39:53.484
En ook op op X zijn er allemaal discussies losgebarsten van is het nou echt of is het nep?

259
00:39:53.984 --> 00:40:02.704
En op zich is het ook logische vraag om jezelf te stellen, want er is echt gewoon 1111 wedloop gaande op het gebied van de robotica volgens mij.

260
00:40:02.764 --> 00:40:13.944
Iedereen wil de beste robot butler leveren en dan wil je natuurlijk ook allemaal laten zien hoe supervet dat is. Dus ja, je kan ook wel. Er wordt ook wel een beetje gesjoemeld volgens mij.

261
00:40:13.964 --> 00:40:17.704
Volgens mij is het ook niet altijd helemaal waar. En er is een robotica expert.

262
00:40:17.744 --> 00:40:30.524
Die heet Ken Goldberg en die heeft een hele handige checklist gemaakt over hoe je nou kan zien of iets echt is of nep of opgeblazen marketing is, of dat het een echte doorbraak is die die je ziet.

263
00:40:31.664 --> 00:40:41.664
Nou ten eerste ga op zoek naar de verborgen poppenspeler, want het zou zomaar kunnen dat die robot stiekem op afstand bestuurd wordt. Veel autonome tussen aanhalingstekens robots.

264
00:40:41.704 --> 00:40:51.624
Die hebben gewoon een menselijke bestuurder die natuurlijk niet in beeld is gebracht. Ik weet niet hoe je dan moet zien of dat het geval is. Ja, maar dat zou in ieder geval kunnen hoe je genept wordt. Het kan inderdaad.

265
00:40:51.644 --> 00:40:57.804
En bedrijven die vergeten dat dan vaak erbij te zeggen dat dat dat dat eigenlijk wel gewoon bestuurd moet worden en niet helemaal autonoom is.

266
00:40:59.264 --> 00:41:08.464
Dan ja, ben je aan het kijken naar een Hollywood scenario of naar daadwerkelijk Silicon Valley. Want hoeveel takes zijn er nodig om zo'n perfect shot van een robot te krijgen?

267
00:41:08.534 --> 00:41:22.604
Gaat het in één keer goed of duurt het 200 takes? En heb je dan eindelijk een keer iemand die zonder een bord bord te laten vallen de vaatwasser uitruimt? Ja, sneaky montages dus. Let op Versnelde beelden.

268
00:41:22.704 --> 00:41:26.484
Een trage robot lijkt dan opeens supersnel, maar voor zover ik weet. Ja, dat weet je niet.

269
00:41:26.884 --> 00:41:35.944
Nogmaals, het is een leuke checklist en je je kunt je afvragen of dat het geval is, maar nog steeds is het heel moeilijk te controleren, want je ziet natuurlijk niet hoe een video gemaakt is.

270
00:41:36.004 --> 00:41:44.744
Ja, en ik denk dat het cynisme wat er omheen komt heeft te maken met dat is het fenomeen van de boy who cried wolf. Een jongen die iedere keer riep naar het dorp de wolf komt, de wolf komt, maar die kwam nooit.

271
00:41:44.764 --> 00:41:55.444
En toen kwam die echt en zei dit luisterde niemand meer. En er wordt zoveel tech gehyped. Al jaren met zelfrijdende auto's, robots en AI dat inmiddels ook het ja de de mainstream een beetje jaded is.

272
00:41:55.464 --> 00:42:03.364
Zo van ja wat hebben jullie allemaal? En cynisch. En cynisch terwijl. Ja, er is goed. Ik cry weer even wolf. Maar de wolf komt er echt aan.

273
00:42:04.224 --> 00:42:14.204
Maar het kan wel zo zijn dat die laatste 10% waar het heel vaak over gaat de laatste 10% van kunnen praten met een robot. De laatste 10% van de vaat kunnen doen dat die 10% dan toch weer tien jaar is.

274
00:42:14.704 --> 00:42:25.644
Dus je kan vaak demo's hebben van een zelfrijdende auto die 90% van de tijd iedereen netjes thuisbrengt, maar 10% van de tijd niet. Dat is veel te veel niet. En dan die 10% is juist die hele moeilijke nog laatste stap.

275
00:42:25.924 --> 00:42:31.184
En dat is nu voor heel veel van dit soort dingen toch wel moeilijk in te schatten. Want dan denk je we zijn bijna bij de finish.

276
00:42:31.624 --> 00:42:40.104
Maar als het exponentieel toeloopt aan het einde dat je steeds harder het wordt, steeds steiler voor de finish, dan moet je toch aan het einde kruipen en dan duurt het weer tien jaar.

277
00:42:40.144 --> 00:42:45.524
Nou dat ja en je moet je echt afvragen zijn is wat ik zie? Is dit daadwerkelijk de finish?

278
00:42:45.564 --> 00:42:55.672
Want je hebt nog nog drie punten.Ja, handige handjes lijken die robots vaak te hebben, maar kunnen ze wel echt een doos oppakken met hun vingers? Of is het gewoon het horizontaal vastklemmen ergens van?

279
00:42:55.732 --> 00:43:07.192
Daar kun je wel echt naar kijken. Uhm, is dat veel makkelijker dat laatste natuurlijk ja dan je vingers de micro bewegingen gebruiken. Precies ja. Dan is er nog. Je kan letten op een te mooie omgeving.

280
00:43:07.232 --> 00:43:14.732
Dus zie je geen rommel of geen mensen die in de weg lopen? Nou, dan kijk je waarschijnlijk naar een hele opgepoetste demo en niet de chaotische realiteit die alleen maar. Werkt in het lab.

281
00:43:14.872 --> 00:43:17.932
Ja, en dan is er nog de krachtpatser of de slappeling.

282
00:43:18.012 --> 00:43:30.172
Dus als een robot een dood doos oppakt, ja, die doos is waarschijnlijk leeg, want een zware doos optillen, dat vereist ook weer dat die robot in evenwicht kan blijven. Dus ja, kijk kritisch.

283
00:43:30.272 --> 00:43:40.092
Nou, ik vind dit lijstje Milou servicegerichte lijstje om nep robot video's te herkennen erg goed. Pak hem erbij. Doet me trouwens ook denken aan wat ik het grappigste eigenlijk het grappigste AI ding vond deze zomer.

284
00:43:40.112 --> 00:43:49.672
Wat mij dan toch bereikte. Heb je dit verhaal gehoord over die Waymo die die aan toeteren waren om vier uur in de nacht? Nee, Waymo zijn zelfrijdende taxi's in San Francisco? Ja, die.

285
00:43:49.732 --> 00:43:58.592
Ik heb gisteren een bericht gekregen van iemand die in een Waymo zat. Ja, dat rijdt gewoon. Ik dacht wat is een Waymo? Dus ik weet het echt zelfrijdende taxi. Die kun je daar gewoon nemen en dan gaat dat stuur.

286
00:43:58.772 --> 00:44:04.052
Je stapt in en dat stuur gaat draaien en je gaat rijden en dat gaat allemaal. Die dingen moeten opladen.

287
00:44:04.112 --> 00:44:14.972
Dat doen ze in de nacht en blijkbaar staan ze dan eerst op een soort van parkeerdek om te wachten of er plek is bij die. En dat zijn sowieso uurtjes waar er niet zo heel veel gebeurt in de nacht.

288
00:44:15.312 --> 00:44:20.872
Dus dan gaan ze met z'n allen daar lekker staan te wachten. Ja. Alleen Waymo werden op een gegeven moment zo ingesteld.

289
00:44:20.892 --> 00:44:28.712
Er kwam een software-update dat als een andere auto te dicht in de buurt gaat in de buurt komt, dat hij dan toetert uit een soort van veiligheids ding. Ja.

290
00:44:29.052 --> 00:44:36.392
Wat bij andere normale menselijk gestuurde auto's heel prima is, maar deze auto's waren allemaal aan het inparkeren en gingen dus allemaal tegen elkaar toeteren op het dak.

291
00:44:36.892 --> 00:44:46.192
En wat er dus gebeurde was dat er mensen in de omgeving woonden boven dat dak in hoge gebouwen die dus 's nachts wakker gemaakt werden door robots die naar elkaar aan het toeteren waren in de nacht.

292
00:44:46.632 --> 00:44:57.152
Toen heeft er iemand daar een webcam opgezet dat live gestreamd zodat mensen met elkaar gingen gokken over waar denk je dat die robot gaat parkeren? Het was best wel chill om naar te kijken. Een soort file girl.

293
00:44:58.031 --> 00:45:07.752
Achtergrond achtergrond dingen. Een soort robots die met elkaar op een parkeerplaats aan het ruziën. Maar dan met met AI was het dus daar geweldig. Daar moest ik aan denken als mijn mijn.

294
00:45:07.792 --> 00:45:14.432
Toch wel mijn hoogtepunt van AI deze zomer. Dat gezegd hebbende ja. Zullen we naar de reclame gaan? Ja.

295
00:45:18.152 --> 00:45:24.152
Ja, de vakantie is voorbij en ben je klaar om weer aan de slag te gaan, dan kun je naar de Data Expo op elf en 12 september in de Jaarbeurs Utrecht.

296
00:45:24.212 --> 00:45:34.592
Dat is het perfecte moment om direct weer up to date te zijn met de nieuwste trends en ontwikkelingen op het gebied van data en AI. Met maar liefst 120 sprekers, onder andere Ahold, de NS en KLM.

297
00:45:34.972 --> 00:45:40.752
Is dit een evenement wat je niet wil missen. Hier vind je alle data analytics en cloud oplossingen onder één dak.

298
00:45:40.832 --> 00:45:49.532
Je kunt tools, technologieën en partners vinden en vergelijken, de nieuwste trends en ontwikkelingen in data land ontdekken en vakgenoten ontmoeten om bestaande en nieuwe relaties te bouwen.

299
00:45:49.912 --> 00:46:02.572
Wil jij ook goed voorbereid de toekomst in? Claim dan nu je gratis ticket. Gratis Milou voor elf en 12 september op Data Expo NL of via de link in de beschrijving. Dat is Data Expo nl.

300
00:46:03.072 --> 00:46:15.571
Omdat jouw kennis en netwerk het waard zijn om te groeien. Dan nu terug naar de show. Ja, we gaan het hebben over Cursor en dat is namelijk een onderwerp wat Wietse heeft ingebracht. Hype. Een hype?

301
00:46:15.692 --> 00:46:26.392
Ja sorry, maar ik heb de hype gemist, dus ik ben. Ik heb er helemaal zin in. Dit is een groot ding, hoor. Mijn Twitterfeed staat vol, vol, vol, vol hiermee. Oké, ik moet even de juiste mensen gaan volgen denk ik.

302
00:46:26.432 --> 00:46:38.632
Want wat is Cursor? Nou, dat heb ik dus ook even opgezocht. Het is een door AI gepowerde tool die helpt om om code te schrijven. Klopt dat? Ja, dat klopt ja. Ik moest. Ik moet zeggen dat ik.

303
00:46:38.672 --> 00:46:47.272
Ik had zo'n momentje dat je dan fan bent van een band. Al best wel lang. En dat dan ineens je vrienden over die band beginnen. En dat jij dan niet cool moet gaan doen van ken je die niet? Ik ga het nu doen.

304
00:46:47.352 --> 00:46:56.392
Kennen jullie het niet? Voor wie is dit allemaal oud nieuws? Dat wil je even gezegd hebben. Ja joh. Nee, maar goed. Ook de hype is oud nieuws voor jou. Nee, ik vond dat ik snap. Ik moest even nadenken van huh? Waarom?

305
00:46:56.622 --> 00:47:03.452
Waarom is dit Cursor ding nou ineens een ding? Dus. Maar ik zou eerst even zeggen wat is Cursor? Heel netjes ja. Uhm.

306
00:47:03.852 --> 00:47:12.132
Programmeurs Software ontwikkelaars werken in een IDI en IDI is eigenlijk een uit de hand gelopen teksteditor. Dus denk aan notepad, maar dan met allerlei features eromheen voor een softwareontwikkelaar.

307
00:47:12.152 --> 00:47:19.752
Wie loopt er te toeteren op de achtergrond? Waymo is een Waymo. Buiten laat je niet afleiden. Er staan drie robots voor onze deur. We hebben niet het juiste gezegd over de pixel.

308
00:47:21.012 --> 00:47:33.792
Klaar om nieuwe kronen in je gebit te zetten. Ik moet gaan liggen. Ga maar even liggen. Ja, een IDI. Ja, en het punt is dat die die. En nu heb je eigenlijk nog maar één IDI bijna.

309
00:47:33.872 --> 00:47:43.872
Er zullen luisteraars zijn die zeggen nee, maar dat is gewoon statistisch waar. Dat is Visual Studio Code van Microsoft en dat is eigenlijk de grootste. De software om software te maken. Ja.

310
00:47:44.912 --> 00:47:51.772
Omdat daar een heel ecosysteem van plugins omheen zit. En alle tutorials die je kijkt zijn daarin, dus het is dan ook handig dat jij hetzelfde gebruikt.

311
00:47:51.832 --> 00:47:59.032
Nu heeft een partij heeft daar een fork van gemaakt, want Visual Studio Code is open source en die hebben een fork gemaakt. Die heet Cursor.

312
00:47:59.552 --> 00:48:10.092
Nou hebben zij gedacht oké, wat als we Visual Studio Code zouden bouwen, maar dan met het idee dat AI een integraal onderdeel daarvan is? Je hebt plugins voor Visual Studio Code, maar dat is allemaal erop geplakt.

313
00:48:10.752 --> 00:48:21.392
Wat kan een plug-in in een IDI? Nou, op het moment dat jij bijvoorbeeld code schrijft in in AI veel gebruikt Python, dan is die code is het wel lekker als je daar ook een Python handboek bij hebt.

314
00:48:21.472 --> 00:48:29.792
Zodat als je een functie hebt en niet snapt wat hij doet, dat je erop kan klikken. En dan komt er een panel zoals dat heet uit de zijkant van jouw IDI. Die zegt joh, dit is wat in Python zou zou doen.

315
00:48:30.042 --> 00:48:40.072
Dan heb je eigenlijk een Python language support plugin geïnstalleerd. Oké, en zo heb je nog. Nou ja.Legio kan ik uren over praten, maar neem van mij aan genoeg Lego om erin te pluggen.

316
00:48:40.132 --> 00:48:48.232
Allemaal om je leven als ontwikkelaar makkelijker te maken. Van documentatie tot testing tools die automatisch al zeggen dit stukje code wat je daar schrijft gaat nergens naartoe.

317
00:48:48.872 --> 00:48:58.832
Pas maar alvast aan of je kan het automatisch laten fixen. Dat soort dingetjes waren er allemaal al. Alle AI die daar in de laatste twee jaar tegenaan gegooid is als plug ins is heel vaak code completion.

318
00:48:58.892 --> 00:49:09.472
Dus ik begin te typen en hij zegt Ik denk dat jij deze zin wil typen. Druk maar op tab, dan ben je ervan af. Ja, dat is hoe het tot nu toe AI in programmeren eigenlijk zijn, hoe het is gaan helpen.

319
00:49:09.712 --> 00:49:20.532
Omdat je begint met het schrijven van een regel code en dan maakt hij hem zelf af. En dat dat zou tijd schelen. Ja, en dat heel veel, want je hebt binnen softwareontwikkelaars een beetje verschillende kampen nu.

320
00:49:20.772 --> 00:49:30.432
Er is een vrij substantieel kamp die zegt ja, al die taal modellen als in GPT's, dat zijn autocomplete on steroids. Dus autocomplete hadden we al.

321
00:49:30.752 --> 00:49:44.432
We hadden al dingetjes die dat konden gokken en deze gokken nog veel beter. En dat is genoeg volgens velen om al een voordeel te zijn, maar niet de revolutie waar. Nou ja, podcasters zoals wij, mensen die dit volgen.

322
00:49:44.472 --> 00:49:57.112
Ik zie het wel als meer dan autocomplete on steroids. Nou, Cursor gaat daar een stap verder en die zegt oké, een aantal dingen. Die hele editor, die bouwen we op met AI op de voorgrond.

323
00:49:57.552 --> 00:50:03.872
Dus we gaan ervan uit dat jij AI gebruikt. Niet als zijspoor of als tweede gedachte, maar hoofdgedachte.

324
00:50:04.072 --> 00:50:12.072
Dus als jij een project erin laadt, dus jouw hele software project, dan gaan we dat hele project indexeren lokaal, zodat we er heel snel doorheen kunnen zoeken op jouw. Dat is al stap één.

325
00:50:12.112 --> 00:50:22.212
Dat doet Visual Studio Code standaard niet op die manier en je kunt zelf een taal model kiezen. Moet je natuurlijk wel betalen als je een goede koppelt, bijvoorbeeld Cloud, Sonnet of GPT vier mini.

326
00:50:22.372 --> 00:50:30.272
Kijk maar wat je wat je wil koppelen. Die kan je dan koppelen aan Cursor en op dat moment heeft hij eigenlijk een overzicht van jouw codebase lokaal.

327
00:50:30.652 --> 00:50:37.932
En als je met die AI praat en dat is iets, want ik spring er even doorheen. Maar waarom is dit nu ineens in de laatste twee weken een ding?

328
00:50:38.512 --> 00:50:46.012
Omdat een feature die in Cursor is toegevoegd is om de bestanden die belangrijk zijn voor die AI om te begrijpen.

329
00:50:46.112 --> 00:50:57.552
Je moet je voorstellen een gemiddeld serieus softwareprogramma heeft gewoon boeken, dikke pullen vol aan software code, zeg maar lines of code. Dat is veel te groot om mee te sturen in iedere vraag. En ook duur.

330
00:50:57.972 --> 00:51:09.492
Dus wat je eigenlijk wil is een tool die meedraait en even van tevoren zegt jouw vraag die je nu stelt over jouw hele bibliotheek. Ik ga eerst even checken welke boeken ik nodig heb en welke hoofdstukken.

331
00:51:09.912 --> 00:51:21.202
Slim gaat hij lokaal checken en die geef ik mee in jouw vraag, zodat dat model wanneer jij een vraag stelt, de context heeft die het nodig heeft van jouw code en niet alle code. En wat dan?

332
00:51:21.232 --> 00:51:32.712
Nog een stap is en dat is waar iedereen zo zat van wat gebeurt er nu, is dat hij zegt je wat wij gewend zijn als programmeurs tot nu toe. Je hebt een stuk code, dan kan die autocomplete doen, zegt hij.

333
00:51:32.752 --> 00:51:40.651
Ik typ die zin wel even voor je af. Dat is al tof. Dat scheelt tijd. Een beetje door je code heen tappen, net als op je WhatsApp dat je volgende woord wordt geraden. Te gek!

334
00:51:41.372 --> 00:51:46.932
Maar dat doe je dan in een van jouw files, zeg maar in een van jouw sub sub sub stukjes van jouw hele software project.

335
00:51:47.532 --> 00:51:56.372
Toen werd het zo dat hij je software project wat beter kende, waardoor hij kon gaan autocomplete zoals jij zou autocomplete. Dus hij gaat niet gokken. In jouw schrijfstijl. Jouw stijl gaat hij gokken. Dat is al lekker.

336
00:51:56.512 --> 00:52:05.652
Op basis van een deel van het project. Wat hij toen ging doen, is hij, zei hij. Ik ga niet alleen maar een volgende regel gokken, ik gok gewoon voor jou de hele rest van wat er nog gaat komen in dit bestand.

337
00:52:05.672 --> 00:52:09.292
Je hoeft alleen maar te drukken op is goed en dan plakt hij het er ook automatisch voor je in.

338
00:52:09.332 --> 00:52:21.552
Ja, want ik zat dus te kijken naar een filmpje van een achtjarig meisje die graag een Harry Potter chatbot wilde programmeren. Die begon met een lege pagina. En weet je, gewoon een lege pagina, niks.

339
00:52:21.992 --> 00:52:29.072
Dan opent ze een nieuw project en je ziet haar hoofd dus rechtsonder in beeld, terwijl je ziet op het scherm wat ze aan het doen is. Dan opent ze een project en zegt ze.

340
00:52:29.432 --> 00:52:39.412
Dan geeft ze gewoon prompt, zoals wij chat GPT prompts geven, namelijk: we gaan een chatbot maken voor Harry Potter. Ik wil met hem kunnen praten. En dan drukt ze op, dan schrijft die code en drukt ze op apply.

341
00:52:39.752 --> 00:52:50.922
Dan heeft ze een browservenster wat ze refresht en dan draait daar een snelle versie en dan zegt ze Ik wil graag als je gaat laden dat er dan een bliksemschicht is die draait tijdens het laden. Enter.

342
00:52:51.332 --> 00:53:03.212
Begint dat ding code te schrijven, drukt ze weer op apply, drukt ze weer op refresh in de browser en in een filmpje van 10 minuten bouwt zij, dus een achtjarig kind dat niet kan programmeren, haar eigen Harry Potter chatbot.

343
00:53:03.692 --> 00:53:16.672
Ik heb dit integraal zitten kijken. Ik dacht echt dat is het moment dat voor mij het kwartje eigenlijk viel. Dat ik dacht Jezus, het is echt gewoon gewoon. Gewoon Engels kunnen praten. Ja, dit is zeg maar.

344
00:53:17.052 --> 00:53:26.632
Ilya Sutskever heeft een bekende tweet van English is the new programming language. Als je Engels kan, kan je programmeren. Ik wil wel even een aantal nuances toevoegen. Ik wilde nog even terugkomen op.

345
00:53:26.912 --> 00:53:35.852
Ik zei net van ja, ik kende Radiohead al en nu hebben jullie het ineens allemaal over die band. En tegelijkertijd zeg ik Cursor heeft iets nieuws gelanceerd. Hoe kan dat dan? Ik gebruik al een best wel lange tijd Aider.

346
00:53:36.012 --> 00:53:45.972
Dat is een tool die nog veel rauwer is dan Cursor, maar Aider die die, die zijn eigenlijk puntje die een beetje above hun weight. Oftewel die zijn een soort manier van werken aan het proberen.

347
00:53:46.002 --> 00:53:54.292
Is open-source software die eigenlijk nog niet helemaal kan, maar als je hem een beetje helpt al wel. Wat, wat kan je daar dus echt een compleet software project van nul naar één opzetten.

348
00:53:54.812 --> 00:54:02.592
En die AI heeft toegang tot je bestandssysteem, dus je kan echt mappen aanmaken, bestanden aanmaken, bestanden bewerken, bestanden vervangen.

349
00:54:02.602 --> 00:54:11.892
En dat is de stap die nog miste omdat je vaak nu als je gaat programmeren of je bent aan het plakken tussen ChatGPT en je en je coding environment zeg maar.

350
00:54:12.232 --> 00:54:21.152
Of je hebt een plug-innetje daarin dat hij mag accepten en dan druk je de hele tijd op accept, accept, accept. Terwijl ik heb gewoon zoiets, joh. Accept het gewoon. Ik grijp wel in als het niet goed gaat. Oké Maar

351
00:54:22.152 --> 00:54:27.152
wat, wat ik nu een beetje voorzie, waarom ik het interessant vind, is eigenlijk een aantal zaken.

352
00:54:28.452 --> 00:54:36.932
Voor de duidelijkheid voor de luisteraar dit is het niveau van een junior programmeur die soms ineens alles vergeet terwijl hij bezig is. Het is een heel raar iets om mee te werken.

353
00:54:38.032 --> 00:54:46.052
Voor mij niet zo frustrerend, want ik ben een ik noem mezelf een tussen programmeur of zo, die als het misgaat gewoon even bij kan springen.

354
00:54:46.412 --> 00:54:54.016
Dus ik, ik zat een beetje na te denken van hep, kan ik, kan ik iets van een metafoor voor het hele verhaal bedenken?Als jij een piloot bent, heb je de autopilot.

355
00:54:54.416 --> 00:55:03.716
Maar het moment dat die autopilot uitvalt, moet je dat hele vliegtuig kennen. Ja, wees blij dat de piloot die daar zit niet alleen maar een kind van acht is dat gaat vliegen. Ja, nou wat?

356
00:55:03.756 --> 00:55:13.796
We zitten dus nu in die situatie waar je eigenlijk als noob, om het maar even zo te zeggen, heel ver kan komen. Ja, tot het ineens vastloopt en zegt error. Ik weet het niet meer.

357
00:55:13.836 --> 00:55:19.296
Ik weet het niet meer en dan denk jij ja, maar ik ook niet. Ja, en dan ben je. Heb je eigenlijk een soort bluf gedaan samen met dat ding? Ja.

358
00:55:19.376 --> 00:55:27.416
Nu, die bluf wordt steeds langer en steeds geavanceerder en het duurt steeds langer voordat je, voordat jij samen met dat ding door de mand valt. Als niet piloot.

359
00:55:27.576 --> 00:55:38.196
De vluchten worden steeds langer, maar het is nog steeds wel zo als dat. Als die autopilot uitvalt, dan zit je daar. Ja, maar dat betekent wel dat de mensen die stiekem al lang konden vliegen zoals ik.

360
00:55:38.256 --> 00:55:46.476
Ik kan een klein Cessna tje vliegen, zeg maar. Voor mij is dit geniaal. Ik heb gewoon een superpower. Ik geef dat ding opdrachten die al heel erg geïnformeerd zijn, want ik weet al lang wat ik wil.

361
00:55:46.716 --> 00:55:52.475
Dus ik ga zeggen je mag dat niet gebruiken, je mag dat wel gebruiken, dit ga jij doen. Maar moet je niet anticipeert op wat hij verkeerd gaat doen. Want ik heb. Ik.

362
00:55:52.516 --> 00:56:00.796
Ik heb inmiddels een soort intuïtie ontwikkeld omdat ik dat al een paar maanden doe. Dit is mijn flex, dat ik dat al een paar maanden doe. Maar goed, in ieder geval, ik sta al een tijdje in het publiek.

363
00:56:00.816 --> 00:56:10.876
Hoor ik nog net niet je spierballen erbij. Goed, maar goed. Ik dus ik. Ik probeer al een paar maanden dit te doen omdat ik denk dit is. Dit is hoe we veel programmeurs straks gaan werken.

364
00:56:11.216 --> 00:56:16.876
Ook al kan het nog niet helemaal. Ik ga er gewoon van uit dat die modellen steeds krachtiger worden en dat die software steeds gelikter wordt.

365
00:56:17.296 --> 00:56:28.756
Want wat er met Cursor eigenlijk gebeurd is, dat is een beetje mijn observatie. Het gaat om de combinatie van cursor, een stuk software wat er veel mooier uitziet dan eder bijvoorbeeld. Veel minder rauw.

366
00:56:28.956 --> 00:56:38.676
Het lijkt op de software die mensen al heel lang gebruiken, plus gekoppeld aan Cloud drie punt vijf Sonnet. Heel veel mensen hebben eigenlijk niet doorgehad de laatste maanden hoe ongelooflijk briljant dat model is.

367
00:56:39.136 --> 00:56:48.355
Dus er komen een soort twee dingen tegelijk samen nu. De knopjes zijn makkelijker aan te klikken en een onbekend model is gekoppeld. En ineens wordt iedereen wakker van wat krijgen we nou?

368
00:56:48.636 --> 00:56:56.236
Kan je gewoon kleine applicaties hiermee maken, terwijl het eigenlijk gewoon artefact zijn. Maar als ik jou goed begrijp is dus de waar.

369
00:56:56.276 --> 00:57:05.476
Waar dit ding echt goed in is, is het begrijpen wat er allemaal in programmeurs handboeken staat om dat op het juiste moment mee te nemen in het prompt als je een vraag stelt.

370
00:57:05.556 --> 00:57:20.036
Nee, niet in de programmeurs handboeken, want het is zo dat wat nu vaak nog niet goed gaat is de stap Oké, nu zeg je tegen mij wat ik aan deze code moet veranderen. Doe het dan ook gewoon ga ik.

371
00:57:20.076 --> 00:57:30.096
Waarom laat je dat nu mij nog doen? Dus dat die software cursor onder andere. En eder, die kunnen gewoon zeggen ik doe het werk alvast voor jou in plaats van dat je zelf moet copy pasten tussen twee vensters.

372
00:57:30.136 --> 00:57:34.476
Dat is een groot ding dat je letterlijk. Je kan letterlijk achterover leunen en dat ding gaat maar door.

373
00:57:34.516 --> 00:57:44.756
Het is best wel een raar effect, alsof je een stukadoor robot in je kamer binnen zet en jij gaat met een kopje koffie erbij zitten en dat ding gaat gewoon los. Heel bizar. Dat vind ik een groot effect als programmeur.

374
00:57:44.816 --> 00:57:50.856
Dat ik dat meemaak. En het is zo dat die enige weet heeft van jouw hele project.

375
00:57:51.076 --> 00:58:00.956
En ook al kan hij niet het hele project steeds meegeven, want het is te duur en te groot, kan hij wel heel slim de stukjes constant selecteren die mee moeten. Oké, en die, die truc, die laatste truc.

376
00:58:01.196 --> 00:58:05.976
Het is eigenlijk weer een rag waar we het al vaker over die slimme rag. Ja, dat heeft er nu voor gezorgd dat hij.

377
00:58:06.876 --> 00:58:12.156
En dan zegt hij ook ja, ik denk dat ik, als ik zo een beetje kijk naar jouw hele ding, dan denk ik dat ik dat bestandje moet hebben. Dus voeg die maar toe.

378
00:58:12.556 --> 00:58:24.116
En dan zegt een ander agentje op jouw computer ik voeg hem toe, want dit is ook nog even een, een interessant gegeven. Wat er bij deze tools gebeurt, is dat het vaak verschillende agentjes zijn.

379
00:58:24.376 --> 00:58:32.736
Agents die met elkaar samenwerken. We hadden het over de mini's eerder in deze aflevering. Op het moment dat je bijvoorbeeld een tool als eder en cursor gebruikt.

380
00:58:33.686 --> 00:58:42.436
Wat eder doet is die heeft Cloud Haiku, het kleinste dingetje van Anthropic, en Cloud Sonnet het midden dingetje en die pakt Haiku.

381
00:58:42.556 --> 00:58:49.776
En die is constant bezig met wat voor opdrachten die moet geven aan Sonnet, de grote baas zeg maar. De lucht, de luchtverkeerscontrole. Ja, en die.

382
00:58:50.096 --> 00:58:57.936
Ik moest ook wennen aan het begin, want ze zijn best wel ruig tegen elkaar vind ik. Als in zo praten mensen niet tegen elkaar. Dat bedoel je. Die kleine zegt dan oké,

383
00:58:59.636 --> 00:59:08.196
ik wil dat je deze en deze en deze en dingen gaat, gaat veranderen voor mij. En dan met hoofdletters erachter. Dit mag je niet, dit mag je niet. Dit moet je doen. Kan je allemaal zien.

384
00:59:08.256 --> 00:59:16.236
Ja, want je ziet het, dit is gewoon een chat die jij meekijkt. Ja oké. En dan zegt die grote zegt oké, sorry, het spijt me. En dan denk ik ja maar goed, dat is wat.

385
00:59:16.276 --> 00:59:22.036
Taalmodellen zijn een soort synthetische mensen, dus die werken dan beter met een beetje alle caps erbij. Zoals Asterix en Obelix.

386
00:59:22.376 --> 00:59:31.716
En dan zegt hij op een gegeven moment van oké, ik heb denk ik door dat ik deze drie bestanden moet hebben. Voeg die nu voor me toe en dan zegt dat kleintje weer ik heb ze gevonden voor je. Ik voeg ze toe.

387
00:59:31.956 --> 00:59:36.376
En zegt die ander Oh dank je wel. Ik ga ermee aan de gang. En dan En dan Soms ga jij weer ook meedoen in dat gesprek.

388
00:59:36.876 --> 00:59:46.456
En wat ik interessant vind, is dat dit deze manier van werken, deze werkwijze die nu binnen de softwarewereld aan het ontstaan is. Want het is. We zijn een beetje aan het pionieren met zijn allen.

389
00:59:46.956 --> 00:59:57.396
Dit gaan wij allemaal mee maken. Als jij. Als jij een PowerPoint-presentatie gaat maken. Ja, en uiteindelijk ga je dus waar we nu een beetje naartoe gaan, is dat wat agent AI heet de volgende grote hype term.

390
00:59:57.776 --> 01:00:11.176
Maar het idee dat er groepjes van AI's, misschien wel van verschillende bedrijven met verschillende expertise, dus Anthropic en Open AI en Microsoft en allemaal die modelletjes gaan met elkaar samenwerken met een soort air traffic controller ertussen.

391
01:00:11.316 --> 01:00:23.616
Die draait waarschijnlijk dan lokaal. En dan dat jij in plaats van een synthetische journalist aan de gang zet om voor jou een artikel te schrijven, is een redactie een stukje onderzoeksredactie.

392
01:00:23.896 --> 01:00:35.786
Die gaat bronnen controleren. Gewoon de rolverdelingen die wij al kenden in, in de mensenwereld blijken ook bijzonder goed te werken. Rolverdeling in die synthetische wereld. En niet geforceerd, want zo doen mensen het.

393
01:00:36.106 --> 01:00:44.816
Maar nee, die taakverdeling, dat werkt eigenlijk best goed. Net als een lichaam organen heeft en niet één super orgaan. Iedereen heeft zijn baan, zijn taak. Wat geweldig!

394
01:00:45.136 --> 01:00:55.196
Ik wil ook mijn eigen delegatie AI agenten die me met alles kunnen helpen. Nou, dit is een beetje. Ik zit echt met mijn. Luisteraars kunnen het niet zien, maar met mijn. Mijn kaak ligt inmiddels op mijn schoot.

395
01:00:55.496 --> 01:01:04.436
En en wat zijn dan de momenten waar je tegen de grenzen aan loopt van wat het ding kan? Zeg maar waar anticipeer je op de dingen die nog niet goed gaan?

396
01:01:04.876 --> 01:01:14.924
Nou, ik had dan bijvoorbeeld kijkWat ik nu al heb geleerd is dat ik. Het moeten allemaal componenten zijn, stukjes zijn kleine stukjes. Net als zo'n artefact bij Anthropic.

397
01:01:15.424 --> 01:01:24.324
Omdat iets kleins is in geheugen te houden, dat die context is te is te begrijpen. Dus laten we het even journalistiek. We kunnen gewoon die metafoor even nog aanhouden.

398
01:01:24.884 --> 01:01:34.944
Als jij een artikel schrijft dat op zichzelf kan staan en gepubliceerd kan worden en wat ongeveer een pagina of vijf lang is. Ik weet niet hoeveel woorden dat is. Hoeveel woorden zit je? Nou, dat is heel veel woorden.

399
01:01:35.204 --> 01:01:40.084
Vijf pagina's. Zit je wel misschien wel iets academisch? 5000? Ja, dat is dat is. Dat is prima te doen.

400
01:01:40.904 --> 01:01:51.384
Maar als dat onderdeel is van een magnum opus, namelijk 111 jouw werk waar je al twintig jaar schrijft, dan raak je in de problemen omdat hij dat werk gewoon niet in context kan houden, niet in geheugen kan houden.

401
01:01:51.684 --> 01:02:02.004
Nou, voor software. Wat ik dus doe is zoveel mogelijk dingen in componenten ontwerpen, omdat ik weet dat ik die stuk voor stuk in geheugen kan houden. En ik heb dan het overzicht waardoor ik wel weet.

402
01:02:02.044 --> 01:02:12.244
Dan zeg ik tegen er is een ander ding, daar hoef jij verder niks over te vragen. Dat verwacht deze en deze communicatie, dus daar kan je ja en nee tegen zeggen en dan kan je tijd aanvragen.

403
01:02:12.304 --> 01:02:20.384
Je Je hoeft niet te weten hoe dat werkt, alleen maar hoe je het moet vragen. Ja, en daarmee hou je eigenlijk zijn geheugen vrij. Ja, dan lukt. Voor relevantere dingen. Ja, en nu langzaam.

404
01:02:20.444 --> 01:02:29.904
Nu die context windows groter worden en de prijzen naar beneden gaan, minder nodig. Ja, dan zeg ik, want in Aider kan je letterlijk zeggen wil je dat ik bedenk wat ik mee moet geven of wil jij dat?

405
01:02:29.924 --> 01:02:38.944
En soms denk ik nou, ik weet wel wat er mee moet. En dan klik ik er zo vijftien bestanden bij en dan zeg ik kijk nou eens even naar het geheel, hoe dit met elkaar communiceert. Kan je er dan wat mee?

406
01:02:39.104 --> 01:02:50.804
En als jij dan vraagt wanneer loop je dan tegen dingen aan? Het kan dan ineens zo zijn dat ik al 2,5 uur met dat ding in gesprek ben en dat hij dan ineens hele stukken erbij begint te schrijven die er al zijn.

407
01:02:51.424 --> 01:03:02.024
Maar dat is hij. Dan heb ik denk ik oh shit, ik heb die niet aangeklikt en dan is het ook dan. Ik bedoel, er is geen geheugen. Dat ding is zo slim, die weet zoveel als jij constant aan hem. Jij bent Alexander Klöpping.

408
01:03:02.084 --> 01:03:14.584
Je bent samen met mij. Als je dat niet doet, dan is hij aan de 2,5 uur werk bijt. En dat, ja, dat onderschat je als mens. En dit is dit voelt als een logisch ding wat met de tijd beter gaat worden.

409
01:03:14.644 --> 01:03:23.464
Dat dat context window, de hoeveelheid informatie die hij in zijn achterhoofd kan houden terwijl hij een opdracht aan het uitvoeren is. Ja, is dat zo?

410
01:03:23.504 --> 01:03:31.324
Is dat in de afgelopen twee jaar is dat context window ook groter geworden. Dat wordt groter. En wat je tegelijkertijd ziet, is dat die modellen worden meer gespecialiseerd.

411
01:03:31.364 --> 01:03:40.064
Dus je krijgt modellen die niks weten over geschiedenis. Dat weten taalmodellen over het algemeen sowieso niet, hoor. Dus niet te veel geschiedenis vraag stellen. Taalmodellen zijn geen feiten machines.

412
01:03:40.124 --> 01:03:46.524
Taalmodellen zijn patroon machines die patronen kunnen herkennen. Dat is echt heel erg belangrijk. Maar dat betekent ook dat ze veel kleiner kunnen zijn.

413
01:03:47.004 --> 01:03:54.564
Want er zijn tests die een kind van acht beter kan afronden dan de allerzwaarste taalmodellen. Juist, maar dat kind van acht weet niet wanneer

414
01:03:56.684 --> 01:04:03.244
Willem-Alexander geboren werd, terwijl ChatGPT best een end komt met alle Wikipedia die hij gelezen heeft. Nu komen ze er natuurlijk achter.

415
01:04:03.924 --> 01:04:14.384
Doet dat er eigenlijk wel toe als in Is het niet veel handiger om een geschiedenis server te hebben die gewoon dat dat ding gewoon zelf op Wikipedia kan lezen wanneer Willem-Alexander geboren is in plaats van dat hij dat ergens ook weet.

416
01:04:14.684 --> 01:04:22.664
Dus wat ik wil zeggen tegen je is de taalmodellen worden steeds dunner en steeds gespecialiseerder en er worden allemaal lobotomie gedaan. Er stukjes uitgehaald van joh,

417
01:04:23.664 --> 01:04:28.624
jij hoeft helemaal niet dit allemaal te weten, want het is ver buiten jouw domein. Je wordt een domein specifieke AI.

418
01:04:29.704 --> 01:04:39.224
En op het moment dat je de modellen verkleint in hoe zwaar ze zijn met wat ze weten, gaat het context window eigenlijk niet automatisch, maar de potentie voor het context window omhoog.

419
01:04:39.544 --> 01:04:53.844
Dus wat je nu ziet is hele dunne programmeer modellen die niks weten over context en cultuur en cultuur culturele context, maar wel ontzettend veel programmeer boeken hebben gelezen die daardoor ook een veel groter context window hebben.

420
01:04:53.884 --> 01:05:00.724
Want er is meer ruimte omdat ze zo licht zijn. Oké, dus ik snap dat dat context window belangrijk is als knop om aan te draaien.

421
01:05:00.804 --> 01:05:11.284
En dat gaat soms dan vanzelf omdat die modellen kleiner worden en dus automatisch er meer ruimte is voor je hele project onthouden. Je magnum opus onthouden. Wat zijn nu? Zeg maar.

422
01:05:11.344 --> 01:05:17.664
Ik ga ervan uit dat dat vanzelf beter gaat worden. Nou, niet vanzelf. Werken mensen hard aan, snap ik. Maar ik zit even te denken. Anthropic heeft nu net.

423
01:05:17.704 --> 01:05:30.024
Vanochtend las ik dat of was gisteravond Anthropic Enterprise Cloud Enterprise 500.000. Precies ja, maar dit is dit is gaat. Iedere paar maanden gaat dat getalletje weer omhoog. Maar wat is dan de. Zeg maar waar?

424
01:05:30.064 --> 01:05:42.824
Waar hangt het dan nu nog op? Om om AI die zeg maar straks zeg maar hoe lang zijn of hoe? Hoe lang zijn mensen nog programmeur? Zeg maar hoe lang duurt het nog voordat. Dat je geen piloot meer nodig hebt?

425
01:05:43.224 --> 01:05:53.584
Ja, ja, dat is dat is wel ingewikkeld. Want dan. Dan heeft het weer te maken met hoe we die programmeurs wereld programmeurs wereld onderverdelen. Net als met die stappen van self-driving.

426
01:05:53.624 --> 01:06:00.744
Van level nul tot en met vijf heb je ook al die stappen binnen de wereld van software maken. Software maken is nou eenmaal veel breder dan.

427
01:06:01.104 --> 01:06:10.664
Ja, het is altijd zo'n grapje onder programmeurs van alle dingen zijn cruds, dus dat betekent create retrieval, update en delete. Oftewel de meeste software applicaties zijn gewoon iets waar je wat kan aanmaken.

428
01:06:11.204 --> 01:06:21.904
Dan kan je het bewerken. Je kan het weggooien. De meeste als je zegt ik heb een CRM-systeem voor mijn lokale korfbalvereniging. Dat is waarschijnlijk een soort uit de hand gelopen adresboek met regels.

429
01:06:21.944 --> 01:06:29.884
Nou, dat soort software dus de crud software. En heel veel software is crud. Ja, dat is het eerste wat nu gevangen wordt in steeds meer templates.

430
01:06:29.904 --> 01:06:40.104
Dus dat betekent gewoon dat is zo generiek, die software dat je als programmeur vooral heel veel stappen vooruit kunt maken. Dus ik zie het nu vooral als 111 versnellende tool.

431
01:06:40.484 --> 01:06:49.624
Dus mensen kunnen eerder wat dan boilerplate heet. Dus dat betekent ik ga weer een project beginnen. Ik heb weer zo'n systeem nodig waarin ik alles kan beheren. Ja, je moet een inlog module maken. Natuurlijk.

432
01:06:50.224 --> 01:07:02.924
Gaan we weer. Ja, dat zijn allemaal herhalende dingen. En die herhalende patronen, want die taalmodellen zijn patronen generatoren. Dat is heel erg goed te doen. Maar er is. Ja, dat bedoel ik niet te veel opnemen.

433
01:07:03.364 --> 01:07:13.724
Ik merk dat ik het wil gaan opnemen voor de voor software makers, maarAan software zit ook heel veel wetware, oftewel organisatie. Heel veel software is namelijk verandermanagement binnen organisaties.

434
01:07:14.044 --> 01:07:22.484
Je kan denken we gooien hier een nieuw control panel tegenaan bij ProRail of zo. Maar uiteindelijk moet die informatie ook tussen afdelingen gecommuniceerd worden.

435
01:07:22.524 --> 01:07:29.024
Moet er samengewerkt worden, moeten rollen anders gemaakt worden. Dus mijn punt is eigenlijk dat ik denk dat we er achter gaan komen.

436
01:07:29.044 --> 01:07:36.984
Dan kan ik het in het kort zeggen de komende jaren gaan we erachter komen dat heel veel van softwareontwikkeling niet de code was, maar de organisatie eromheen.

437
01:07:36.994 --> 01:07:47.704
Omdat het mensen zijn die die software uiteindelijk moeten gebruiken. Dus als jouw vraag dan is wanneer hebben we programmeurs niet meer nodig? Ik denk dat we met minder programmeurs meer software kunnen maken.

438
01:07:48.744 --> 01:07:51.044
Dat helpt, want dat dat, dat gaat wel dingen versnellen.

439
01:07:51.664 --> 01:08:01.004
Maar tegelijkertijd zijn er, omdat het allemaal toch nog wel general models zijn, ook al heb je ze allemaal Python boeken laten lezen, het is nog steeds een soort gemiddelde Python programmeur.

440
01:08:01.684 --> 01:08:11.184
Op het moment dat het heel specifiek wordt met het aansturen van een pomp bij een gemaal, dan moet je toch weer heel veel weten van elektrotechniek en, en natuurkunde en druk en getijden.

441
01:08:11.444 --> 01:08:19.864
Ja, en dan voor je het weet mist, is valt het model weer door de mand en dan moet hij toch weer breder gemaakt worden. Dus het is. Het is denk ik de vraag voor de komende jaren.

442
01:08:21.564 --> 01:08:24.104
Wat je bijvoorbeeld ook bij zelfrijdende auto's ziet als we het nog even over Waymo hebben.

443
01:08:24.524 --> 01:08:32.924
Stiekem moet een zelfrijdende auto ook weten wat zwangerschap is, zodat hij een zwangere vrouw die bij een stoplicht staat nog even ja, dus voor je het weet denk je dat ding hoeft alleen maar auto te kunnen rijden.

444
01:08:33.324 --> 01:08:41.464
Daarvoor moet je toch even helemaal weten wat een mens is eigenlijk. Ja, dat het ook bij heel veel software zo gaat zijn dat dat model weer breder moet gaan worden omdat je meer nodig hebt.

445
01:08:41.864 --> 01:08:51.244
Maar al met al op het gebied van crud apps. Dus apps die heel erg op elkaar lijken, maar een ander themaatje hebben, eigenlijk een ander kleurtje of een ander ander domein.

446
01:08:51.824 --> 01:09:00.024
Met junior programmeurs die eigenlijk de hele dag bezig zijn om data van de ene naar de andere kant te brengen. Op dat gebied is er nu van alles gaande en die software wordt steeds beter.

447
01:09:00.064 --> 01:09:10.064
De reden dat het nog vrij weinig ingezet wordt, is in mijn ogen omdat de interface, dus het gebruikersgemak voor de eindgebruiker, is er gewoon nog niet echt. Het ziet er nog uit als een GitLab. Ja, precies.

448
01:09:10.104 --> 01:09:17.223
Je ziet het moment dat Cursor dat doet dan, dan, dan, dan breekt het door een soort barrière heen van, van adoptie. Dan begrijp ik het ook opeens.

449
01:09:17.364 --> 01:09:27.744
Ja, en ik denk ook wat jij net deed op je Pixel telefoon van ja, wat is AI? Nou hier. Hier is een stem. Ga maar. Vraag maar iets. En ik? Dat is mijn ideale demo altijd.

450
01:09:27.804 --> 01:09:39.404
Ik ben jaloers dat jij dit kan doen, want ik zit nog met die oude OpenAI app te pielen. Dat werkt daar helemaal niet zo lekker in. Maar er is. Er is heel veel gaande qua optimaliseren van werk, dus de versnelling.

451
01:09:39.824 --> 01:09:48.263
Maar ik zie dit nu nog wel heel erg gebeuren. Om terug te komen op die piloot. Op een pilootachtig ding dus. Je bent een piloot in een vliegtuig.

452
01:09:48.644 --> 01:09:57.564
Het merendeel van de tijd geef jij het over, delegeer jij aan een ander systeem. Maar het moment dat het systeem een vraag heeft of er gaat iets niet goed of de het weer is net even anders.

453
01:09:57.624 --> 01:10:08.483
Er wil een zwangere vrouw oversteken. [lacht] Ineens, ineens is het zo van oh, maar nu moet jij alles weten. By the way, bij Waymo lossen ze dit op door remote operators. Dus die auto. Ook een mens weer.

454
01:10:08.544 --> 01:10:20.084
Ja, die vraagt dan om een mens. Ik ga vlug mijn gevarenlichten aanzetten als robotauto en aan de kant staan. Een operator op afstand gaat met een webcam dat zien, zet die auto weer goed en dan wordt hij weer overgenomen.

455
01:10:20.244 --> 01:10:30.404
Het zou dus zo kunnen zijn en dan doen we er een strik om, om dit onderwerp. Dat je straks als meisje van acht een stuk software maakt met Harry Potter en het ding dat hij op een gegeven moment vastloopt.

456
01:10:30.444 --> 01:10:41.684
Dus zij valt door de mand. En dat premiumpakket is dat je er een mens erbij haalt. Assistant, remote assistant. En dan. In Pakistan. Ja, maar dan? Dan blijft de vraag natuurlijk van als jij uiteindelijk.

457
01:10:42.304 --> 01:10:52.534
Ja, je krijgt een soort klant internetbureau relatie. We hebben deze relatie al, namelijk je huurt een bureau in om het werk te doen wat jij niet kan. Of een architect om je huis te ontwerpen.

458
01:10:52.573 --> 01:11:01.284
Of een elektricien om je gangkast te repareren. En jij bent de noob die in het vertrouwen legt bij een ander. En, en die relatie gaat ook met die AI zo zijn.

459
01:11:01.733 --> 01:11:14.984
Maar ja, bij elektriciens is het nu zo dat hij dan niet ineens stilstaat in jouw gangkast en jij zegt alles oké. En dan ensemble, ensemble, ensemble, ensemble. Jason, feed whatever not available. Dus ik.

460
01:11:15.144 --> 01:11:26.923
Zou wel heel hard moeten lachen. Wordt leuk, mam bij de tandarts. Nou ja, nou fascinerend. Ik dacht nou programmeren. Leuk. Maar echt. Dank voor deze update. Dank je wel. Gaan we weer naar de reclame.

461
01:11:29.644 --> 01:11:37.444
Alexander, wat als ik op zoek ben naar een uitdagende carrièreswitch naar de IT? Nou Wietse, wat leuk dat je dat vraagt. We hebben een adverteerder en die heeft er wat over te melden.

462
01:11:37.504 --> 01:11:48.964
Calco gelooft namelijk dat iedereen een uniek talent heeft dat wacht om ontdekt te worden. En hun IT-traineeship staat open voor alle starters met een hbo- of wo-diploma, ongeacht studieachtergrond.

463
01:11:49.064 --> 01:11:56.944
Dus zelfs met je kunstgeschiedenis kan je bij Calco aan de slag. Kun je programmeur worden. Calco ziet jouw potentieel en helpt je groeien met een uitgebreid opleidingsprogramma.

464
01:11:57.044 --> 01:12:05.004
Je verdient vanaf dag één en kunt elke maand starten. En na je opleiding ga je aan de slag bij een top 200 bedrijf waar je on the job verder leert. Want zo gaat dat.

465
01:12:05.024 --> 01:12:15.624
Maar liefst 95% van de trainees stroomt door naar een vaste baan bij deze opdrachtgevers. En of je nu interesse hebt in business IT, development, data of infrastructuur, voor iedereen is er een plek in de IT-sector.

466
01:12:16.004 --> 01:12:31.124
Ben je klaar om je loopbaan een boost te geven? Ga dan naar Calco punt NL en start je avontuur in de IT en vind de link in de beschrijving. Zo. Ten slotte. Ja, de tip van de week eigenlijk nog.

467
01:12:31.444 --> 01:12:41.444
Er is één tool waar ik, waar ik, waar ik wel fan van blijf omdat hij ook de hele tijd beter wordt. Een AI tool gemaakt door een Nederlander, Pieter Levels en dat heet foto AI.

468
01:12:41.544 --> 01:12:50.844
Dat is een tool waar je twintig foto's van jezelf in sleept en dan kun je vervolgens onbeperkt aantal foto's van jezelf genereren op basis van het model wat hij gegenereerd heeft van jouw gezicht.

469
01:12:50.884 --> 01:12:59.564
Dus stel je wil een nieuwe LinkedIn foto, maar je hebt geen zin om een hele, nou ja, ingewikkelde fotoshoot te doen. Of nou ja, je hebt geen fotolicht die ervoor geschikt is.

470
01:12:59.884 --> 01:13:10.904
Dan kun je dus met foto AI na twintig foto's die eerder van jezelf gemaakt zijn. Dat kan gewoon iPhone foto's zijn of wat dan ook, al maak je ze speciaal voor deze. Voor dit model maakt hij dus onbeperkt foto's.

471
01:13:10.924 --> 01:13:25.636
Als je dan zegt ik wil in eePak met Amsterdam op de achtergrond met in de schemering. Dan maakt dat ding gaat ie eindeloos en dan kun je dus zeggen foto maken, foto maken, foto maken en dan maakt hij die foto's.

472
01:13:25.676 --> 01:13:35.416
Als jij in een Armani jurk boven op de Mount Everest wil staan, dan maakt dat ding dat voor je. Ik heb mezelf. Dat ik het wilde, maar nu wil. Ik, nu wil je het. Ik heb het gezien in.

473
01:13:35.556 --> 01:13:44.236
Ik heb mezelf gezet in een gele onesie op de savanne. Mag ik dit zien? Doet hij gewoon. Ja, ik kan dit straks aan je laten zien. Ik Ik ga dit verder niet delen met de luisteraar.

474
01:13:44.256 --> 01:13:54.716
Moet je dan eerst wel een eigen foto van jezelf erin stoppen? Twintig van je uploaden, that's it. En daarna kan je onbeperkt doorgaan met genereren. En Pieter Levels maakt dat ding de hele tijd beter. En dat is wel leuk.

475
01:13:54.736 --> 01:14:04.116
Je volgt bij hem eigenlijk wat hij altijd doet zijn bestaande API's aan elkaar koppelen om dan dit nou deze specifieke use case te maken foto's maken.

476
01:14:04.756 --> 01:14:15.196
En je volgt dus door dat product te gebruiken eigenlijk ook de cutting edge van die technologie in het begin. Ik zou zeggen drie weken geleden duurde het nog minuten voordat hij een foto gegenereerd had.

477
01:14:15.536 --> 01:14:23.716
Nu is dat een kwestie van 10 seconden voordat hij een foto genereert. Dat is wel een grappig ding. In het begin hadden modellen zes vingers. Dat was een soort van cliché bij AI foto generatie.

478
01:14:24.176 --> 01:14:37.896
Nu ziet alles er keurig uit en hij zegt eigenlijk dat hij denkt dat het op het kantelpunt staat naar wanneer foto's die gebruikt worden voor reclame eerder door AI gedaan worden dan met AI modellen gemaakt worden dan met echte modellen.

479
01:14:37.936 --> 01:14:52.636
Hij denkt dat dat kantelpunt nu heel dichtbij is en hij denkt dus dat voor goedkopere campagnes er gewoon AI karakters gebruikt gaan worden in fotoshoots voor in bladen of wat dan ook die helemaal niet bestaan.

480
01:14:53.116 --> 01:15:07.416
En voor de dure campagnes zullen dan modellen gebruikt worden van echte beroemde modellen of influencer modellen bedoel ik in die laatste variant knappe mensen en in het eerste variant de technische ja technische woord.

481
01:15:07.776 --> 01:15:17.856
En dat er dus bureaus gaan ontstaan die als het ware datasets gaan aanleveren en die juridische rechten afgedekt hebben van bekende mensen.

482
01:15:17.916 --> 01:15:27.636
Dus dan is het idee dat van jou Milou dan, dan verkoop jij aan dat bedrijf, verkoop jij jouw likeness en dan zijn daar allerlei voorwaarden voor en dan kunnen zij dus gewoon met jou aan de slag. Als.

483
01:15:27.676 --> 01:15:33.636
Dan hoef jij niet naar de Himalaya te vliegen om jou op de foto te zetten, dan is dat gewoon iets wat geprompt wordt.

484
01:15:33.776 --> 01:15:46.196
En hij verwacht dus een soort van uhm ja, een reeks plug ins zodat je zoals je dat nu voor Lightroom hebt om foto's te finetunen op weet ik veel bepaalde analoge filmstijl of wat dan ook maakt dat foto's mooi zijn.

485
01:15:46.636 --> 01:15:55.256
Dat dat iets is waar je plug ins voor gaat kunnen kopen. Dat er allerlei dataset aanbieders komen die gefinetuned modellen verkopen, bijvoorbeeld voor specifieke steden.

486
01:15:55.396 --> 01:16:04.676
Als je bijvoorbeeld in Dubai je fotoshoot wil doen, dat je dan de fine getunede set van Dubai kan krijgen of van allerlei mooie binnenruimtes of wat dan ook nodig is.

487
01:16:04.816 --> 01:16:17.136
En de getrainde brand guides voor de merken zodat als je een Nike Nike fotoshoot doet dat hij dan dat dat ding dan begrijpt wat dat eigenlijk betekent en daarbinnen creatief kan kan zijn.

488
01:16:17.176 --> 01:16:22.616
Dus Pieter Level is de maker van deze tool die denkt op dat moment nu dat we nu op ongeveer 80% zijn.

489
01:16:22.656 --> 01:16:32.256
Dat je zeg maar een model kan pakken, een foto kan maken van een stuk kleding wat nog niet eens gemaakt hoeft te zijn in de fabriek, maar puur het ontwerp ervan is. Dat we nu op 80% zijn.

490
01:16:32.276 --> 01:16:43.696
Dat je zo'n virtueel try on model noemt hij dat dan kan gaan maken en dat je. Ja, dit wordt een soort van nieuw proces om tot fashion shoots te komen. Cool! Maar dat kun je dus zelf gebruiken.

491
01:16:43.776 --> 01:16:52.976
Denk ook even aan alle vliegreizen die niet meer nodig zijn. Binnenkort hoeft het model niet meer op de foto, maar je hoeft ook niet meer als influencer te doen alsof je bij de Machu Picchu bent geweest of.

492
01:16:52.996 --> 01:17:00.816
Je hoeft je bed niet meer uit te komen als influencer. Nou, dat is toch geweldig nieuws? Geweldig nieuws voor. Iedereen. Voor iedereen eigenlijk. En je kan het dus ook zelf proberen.

493
01:17:00.836 --> 01:17:10.776
Foto AI is als je er naar googelt, dan kom je er wel. En als je meer AI wilt toepassen in je werk of in de rest van je leven, meld je dan aan voor onze nieuwsbrief via AI report punt e-mail.

494
01:17:10.816 --> 01:17:18.556
Dan krijg je dit soort tips twee keer per week. Vet! Dat was het dan. Dat was het dan. Deze aflevering is voorbij. We danken Sam Hingeveld voor de edit.

495
01:17:18.656 --> 01:17:28.636
En als je een lezing wil van over AI, van Wietse of van Alexander, dan kan dat. Mail ons op Lezing at Pokkie punt show. En vergeet je dus niet te abonneren op de nieuwsbrief. Of is dat een beetje te dubbel?

496
01:17:28.646 --> 01:17:37.616
Nee, vind ik heel goed. Noem nog een keer die URL dan. Zal ik dat doen? Nee, doe ik wel. AI-report punt e-mail. Heel goed. Dank je wel. Tot volgende week. Dag. Doei.
