WEBVTT

1
00:00:00.100 --> 00:00:10.400
[alarm] Oh. Zo klinken 165.000 scheerbewegingen per minuut die je helpen om fris voor de dag te komen.

2
00:00:10.420 --> 00:00:17.860
De flexibele scheerkop van de Philips S9000 Prestige volgt de contouren van je gezicht en scheert tot op nul millimeter van je huid.

3
00:00:18.660 --> 00:00:29.000
Ervaar een ultiem gladde en comfortabele scheerbeurt, ook wanneer je nog niet helemaal wakker bent. Want dankzij de slimme sensoren past het scheerapparaat zich helemaal aan jou aan.

4
00:00:29.740 --> 00:00:39.920
Zo kun jij nog extra genieten van je kopje koffie voor je de deur uit gaat. De Philips S9000 Prestige is het ideale scheerapparaat om jouw dag goed mee te beginnen.

5
00:00:40.300 --> 00:00:53.000
Koop de Philips S9000 Prestige bij jouw favoriete winkel. Laat me je voorstellen aan Pim Verlaan. Ik begin op een hele jonge leeftijd met beleggen. Die horizon die jij hebt, gaat zoveel voordeel opleveren.

6
00:00:53.180 --> 00:01:03.420
Pim is een man met een missie. Iedereen veilig en verantwoord leren beleggen. Als je echt iets wil leren, leer het van iemand die één stapje vooruit loopt. Hij legt je uit op welke manieren je kan beleggen.

7
00:01:03.480 --> 00:01:15.720
Elke bank heeft eigenlijk zijn eigen beleggingsfonds. Ik hou daar helemaal niet van. Op welke manieren je beter kan beleggen en hij rekent je voordeel op de euro nauwkeurig uit. € 192.000 minder rendement.

8
00:01:15.800 --> 00:01:21.400
Zelf leren beleggen. Niemand vertelt dit. Pim dus wel in Jong Beleggen de podcast. Nou, dat is toch fantastisch?

9
00:01:21.610 --> 00:01:46.140
[muziek] Welkom bij POKI, een podcast over kunstmatige intelligentie waarin wij, Wietse Hage en ik, Alexander Klöpping, je bijpraten over de wondere wereld van AI.

10
00:01:46.580 --> 00:01:58.000
En vandaag gaan we het hebben over twee dingen. Één: de Humain pin. Een soort van AI-broche die je op je buik kunt spelden en die met je kan praten, zoals ChatGPT. Gebruikt ook technologie van OpenAI.

11
00:01:58.460 --> 00:02:08.320
En we gaan het hebben over de aankondiging van vorige week, uh, van, van OpenAI waarin ze een nieuw taalmodel lanceerden en allerlei gave nieuwe dingetjes waar wij enthousiast over zijn. Veel plezier!

12
00:02:09.000 --> 00:02:16.160
Dus Humain is een, uh, product wat al hele lange tijd in de, in de, ja, waar, waar het al hele lange tijd over gekletst wordt.

13
00:02:16.580 --> 00:02:37.780
Ik denk het moment dat dat begon was dat ze bij, op TED een, uh, een introductie deden van, van een demo deden van het device en daar werd al duidelijk dat het een soort van, uh, speldje zou zijn die je op je revers draagt en die een camera heeft, die een microfoon heeft, uh, maar geen beeldscherm anders dan een laserprojectie op je hand.

14
00:02:38.180 --> 00:02:50.740
Oftewel als je wil dat het apparaat iets wil laten zien, dan kun je je hand, uh, ja, wat moet je zeggen, voor je, voor je neus houden in de lucht en dan projecteert ie tekst op de palm van je hand.

15
00:02:50.820 --> 00:02:59.390
Dus als jij naar de volgende track wil gaan van de muziek die je aan het luisteren bent, dan hou je je hand omhoog en dan zie je daarop geprojecteerd welk liedje je aan het luisteren bent. Maar voor de rest.

16
00:02:59.440 --> 00:03:10.080
Is het zo, als ik meteen mag bijvallen, dat ik dacht dat het dan een soort laserprojectie touchscreen was, maar dat is het, in de video heb ik dat niet gezien. Het idee is dat je dus gestures kan doen.

17
00:03:10.460 --> 00:03:21.680
Je hand sluiten is naar de homescreen gaan en je vingers tippen, tappen is op de playbutton. En hij bewoog zijn hand een beetje waardoor die als het ware verschillende delen van de interface kon bereiken met een gesture.

18
00:03:22.080 --> 00:03:30.820
Maar misschien. Als een oude iPod dus. Ja. Het is een rondje en dan druk je aan de rechterkant van het rondje en dan ga je naar de volgende track en hier moet je je hand naar rechts tilten.

19
00:03:31.000 --> 00:03:37.640
Dan ga je naar de volgende track. Ja. Dus voor mij kan je niet in je hand, op je hand tappen, zeg maar met je vinger alsof het een scherm is.

20
00:03:37.680 --> 00:03:48.760
Maar dat weet ik niet helemaal zeker, want voor alles wat zij lezen en doen vraag ik me af of het niet gewoon wel kan, maar dat zij hadden, die gestures zijn cooler of beter na testen. Ik weet het niet.

21
00:03:49.100 --> 00:03:58.720
Nou, het idee van het apparaat is dus dat je, uh, ertegen kan praten gedurende de dag door even je hand, uh, soort van je vinger op dat, op je revers te, te tappen alsof het een broche is.

22
00:03:59.260 --> 00:04:06.920
Dan gaat dat ding luisteren en dan geeft hij antwoord daardoor. Daarvoor gebruikt hij AI. Je kan dan dus allerlei vragen stellen, uh, over feiten.

23
00:04:07.200 --> 00:04:11.160
Je kan ook je agenda laten voorlezen of de hoogtepunten uit je e-mails laten voorlezen.

24
00:04:11.200 --> 00:04:21.060
Of als je, ik vond het een mooi moment in de demo als je voor je Airbnb staat en ook weer wil weten wat de code is van het deurslot, dan vraag je: wat is ook alweer de code van het deurslot die, uh, Airbnb me heeft gestuurd?

25
00:04:21.079 --> 00:04:33.120
En dan zegt hij gewoon alleen de code. Precies wat je wil. Uh, en, uh, nou nog, nog heel veel meer dingen. Wat was je, wat, wat was je algemene indruk van dit ding? Ja, dat ging weer een beetje alle kanten op.

26
00:04:33.200 --> 00:04:41.560
Ik dacht wel eerlijk, ik was, kijk, toen zij een tijd geleden een beetje begonnen te hypen rond hun, hun bedrijf voelde het een beetje als de segway.

27
00:04:41.980 --> 00:04:49.960
De segway had ook heel veel hype destijds en uiteindelijk heb je er stadstours mee en dat was het, zeg maar. Het is niet het volgende revolutionaire vervoermiddel gebleken.

28
00:04:49.969 --> 00:04:59.060
Het is ook niet niks trouwens, de segway, maar het is ook echt niet wat ze toen dachten. Nee. Maar goed, het is ook een beetje zo, hè, dat je wat naar buiten druppelt en een beetje mysterieus erover doet. Dat kan werken.

29
00:04:59.100 --> 00:05:09.660
Ik was geïntrigeerd. Ik ben om, nog steeds geïntrigeerd. Uhm, hij heette heel lang de pen en toen ineens de AI-pen. Toen werd ik een beetje sceptisch dat ik dacht: oké, dat heb je er nog even opgeslapd.

30
00:05:10.100 --> 00:05:19.140
Maar nu ik het product heb gezien in die video denk ik: nee, dit is wel echt niet later nog even toegevoegd. Dit klopt heel erg. Uhm, ik zat er wel heel de tijd naar te kijken.

31
00:05:19.180 --> 00:05:27.820
Ja, dat is dan hoe ik wel vaker naar nieuwe producten kijk. Dat heb ik ook wel eens eerder gezegd in deze podcast. Dit is gewoon een product van Microsoft of van Google of van Apple.

32
00:05:28.360 --> 00:05:35.640
Of misschien van OpenAI, de OpenAI-pen. Ik snap niet zo goed wat zij als Humain daar verder als bedrijf in de toekomst mee te maken hoeven hebben.

33
00:05:36.040 --> 00:05:43.620
Je bedoelt het is een softwareproduct in plaats van een hardwareproduct of wat bedoel je? Nou ja, ik, ik, uiteindelijk is het, uh, het is een aantal dingen wat ik heb gezien.

34
00:05:43.660 --> 00:05:50.100
Dus e-even, en die zal ik dan voor nu even parkeren, want dat is bijna zonde, want de andere dingen zijn zoveel leuker en interessanter.

35
00:05:50.160 --> 00:05:59.940
Het bedrijf Humain zie ik eigenlijk niet echt heel erg een toekomst voor, behalve als een soort designbureau die vette dingen maakt die uiteindelijk gekocht worden door andere grote partijen waar ze meer op hun plek zijn.

36
00:06:00.130 --> 00:06:07.260
Mhm. Dat even daargelaten, want volgens mij is dat, is dat helemaal niet het meest interessante hieraan. Dat is meer een soort, uh, business perspectief op wat ze aan het doen zijn.

37
00:06:08.000 --> 00:06:21.250
Ik zat te kijken en ik dachtWat een interessante interface. Wat een interessante, uh, ja, deur tot zo'n spraakinterface en tot een, tot een AI eigenlijk waar wij het al al die maanden over hebben.

38
00:06:21.670 --> 00:06:34.050
Als ik het sec zo bekijk, even los van wat kost ie en van wie moet het eigenlijk allemaal zijn, vind ik het interessant. Waarom? Omdat ik ook een soort honger heb naar andere vormen van interactie. Minder schermen.

39
00:06:34.170 --> 00:06:42.450
Uhm, ik, ze zitten toch op een aantal waarden. In ieder geval, dat proberen ze, hè, dus er gaat een lampje aan als er iets opgenomen wordt, zodat iedereen kan zien wat er aan de hand is.

40
00:06:42.850 --> 00:06:48.570
Dit zijn ook een beetje dingen die nog bedacht moeten worden. We hebben allemaal de fantasie om te praten over een privacy light, hè.

41
00:06:48.630 --> 00:06:53.950
In de nieuwe bril van Meta zit ook een lampje in de zijkant van je Ray-Ban die gaat branden als er een foto gemaakt wordt.

42
00:06:53.970 --> 00:07:08.470
Die bedrijven leggen ze, leggen dit hunzelf op dit moment op, omdat er eigenlijk nog niet echt regels zijn over, nou ja, er zijn vast regels in de wet rondom consent en opname, maar hoe dat er dan in een interface en fysiek uitziet en, hè, bij een auto als die achteruit rijdt moet je een piepje horen.

43
00:07:08.490 --> 00:07:17.470
In ieder geval in de industrie. Nou dit, die regels, zeg maar, rondom je moet een piepje horen of je moet een, je moet een lampje zien. Die hebben we nog een beetje nodig. Dat zal in sommige landen nu bestaan.

44
00:07:17.510 --> 00:07:25.249
Japan denk ik wel, maar in, uh, ik voor zover ik weet zijn er in bijvoorbeeld Europa nog geen, uh, regels voor. Maar ik laat me graag, uh, informeren.

45
00:07:25.850 --> 00:07:31.810
Dus daar ben ik dan enthousiast over dat ik denk: wat tof, daar hebben jullie over nagedacht. Uhm, toen zat ik te kijken.

46
00:07:32.390 --> 00:07:49.830
Ik, ik, ik heb hem helemaal tot me genomen dat ik die Star Trek communicator of die Apple Watch op je borst, en dat zeg ik expres cynisch, want daar kom ik zo op, uhm, dat ik dacht: wauw, als dit een extensie is van de OpenAI ChatGPT app op je telefoon die dus een foto kan nemen en kan zeggen: mag ik deze nootjes eten?

47
00:07:50.030 --> 00:08:00.350
Heel mooi voorbeeld, hè. Of hoeveel proteïne zitten er in deze nootjes? Voeg hem meteen even toe aan m'n-- ik denk dat alleen al, even serieus voor mensen met, uh, suikerziekte is dit een ding. M-hm.

48
00:08:00.440 --> 00:08:10.950
Uh, hè, of het dan hun ding is dat even daargelaten, want kan je dat niet ook al nu op je Apple Watch inspreken? Misschien met een bepaalde app waar ik niet van weet? Uh, kijk, uh, ik, ik zat heel erg te kijken.

49
00:08:11.670 --> 00:08:23.410
Ja, als je een camera op je borst hebt waarmee je, uh, want in heel veel gevallen van technologie is het vooral de frictie, uh, die het verschil maakt, hè. Dus de beste camera die je hebt is de camera in je zak.

50
00:08:23.510 --> 00:08:30.650
Dat is datzelfde grapje, hè. Je kan wel zeggen: ik heb een DSLR thuis liggen, had ik hem nu maar meegenomen, want oh, wat is het een mooie zonsondergang. Je hebt je iPhone, maak die foto maar.

51
00:08:31.390 --> 00:08:42.390
Ik denk dat als er, als het je lukt, ik spring even alle kanten op, hoor, want, uh, als het je lukt om dit pinnetje op te doen, want ik liep, ik liep net hier naar mijn kantoor, toen dacht ik: ik heb net drie lagen aan en uit gedaan.

52
00:08:42.470 --> 00:08:51.070
Voor mij was hij al weg geweest. Ja, oprecht. En was mijn jas er al lang overheen. Dus ik ben nog een beetje sceptisch over hoe dat dan zou moeten werken. Maar goed, daar kunnen we nog met elkaar een beetje over zoeken.

53
00:08:51.110 --> 00:09:02.010
Wordt het een ketting? Heb je er meerdere? Zit ie in je jas geborduurd? Ik weet, hè, wordt ie op een gegeven moment € 50 [gniffelt] bij de Kijkshop, dus dat laat ik ook even daar. Ik heb daar mijn vragen bij.

54
00:09:02.110 --> 00:09:12.730
Ja, die Kijkshop. Is er weer, hè? Nee. [gniffelt] Maar is al heel lang niet meer. Nee, al heel lang niet meer. Ik date mezelf even. '86 ben ik geboren. Daar is, komt het- Anyway. Ja, maar goed, kleren uit.

55
00:09:12.770 --> 00:09:24.360
Hoe gaat dit werken? Ja, dus. En ik denk dat, uh, op zich, als ik kijk naar hoe ik nu met de, uh, app van OpenAI aan het oefenen ben door, ik ben dus ook foto's aan het schieten nu met consent van mensens huiskamer.

56
00:09:24.410 --> 00:09:31.690
Dan zeg ik: heb je tips voor een andere kleur muur of zo? Dit is gewoon heel leuk en ik heb nog lang niet uitgevonden wat voor gekke dingen je allemaal kan doen.

57
00:09:31.730 --> 00:09:39.770
Of ik vind het ook heel leuk om, uh, buiten gewoon een foto te maken en zeggen: waar ben ik? En dan kijken of hij het kan, weet je wel. Soort GeoGuessr. Ik vind dat allemaal heel grappig.

58
00:09:40.350 --> 00:09:49.090
Ik denk met de frictie waar ik het een paar zinnen geleden over had van dit apparaat, dat ik even twee vingers op mijn borst leg à la Spock uit Star Trek en zeg: waar ben ik nu? Waar ben ik nu?

59
00:09:49.450 --> 00:09:58.830
Dat gaat voor mij wel een paar weken leuk zijn, kan ik je vertellen. [lacht] En van, uh, joh, heel even die afspraak die ik met Alexandra heb voor Pokkie. Zou die een half uur later kunnen?

60
00:09:59.110 --> 00:10:08.210
Gewoon Siri, hè, want er zit een soort van, is het niet eigenlijk gewoon een voice assistant? Ja. Ja, maar dan wel met twee vingers op je borst. Die interactie vind ik boeiend.

61
00:10:08.300 --> 00:10:19.850
Dat kunnen ook twee tapjes met je vinger zijn met je Apple Watch. Misschien moet dan even je pols omhoog, maar ik zat dus al met al en dan hou ik even mijn mond te kijken van: we hebben al een horloge.

62
00:10:20.130 --> 00:10:23.370
Dat heeft heel veel tijd gekost om die horloges de wereld in te krijgen.

63
00:10:23.470 --> 00:10:32.870
Nog voor de Apple Watch, hè, dus dan moet je hem omdoen, afdoen tijdens het douchen, misschien zelfs opladen, uh, nou ja, uh, in ieder geval een nieuw, nieuw batterijtje erin om de zoveel tijd.

64
00:10:32.910 --> 00:10:39.270
En later met de Apple Watch echt een soort van als een cavia onderhouden, hè, dus die moet naast het bed en dan misschien een keer een nieuw hoesje eromheen.

65
00:10:39.310 --> 00:10:49.850
En het is een beetje een diertje wat je een beetje moet verzorgen. Dat lukt mensen, want de Apple Watch en smartwatches zijn een ding, hè, dus dat. En toen dacht ik: ja, dan hebben mensen ook nog smartphones en laptops.

66
00:10:50.290 --> 00:10:56.990
Gaan we dan daar nu nog een categorie aan toevoegen van apparaatje wat je weer moet gaan verzorgen met batterijtjes en, en charge cases?

67
00:10:57.030 --> 00:11:01.210
Ik zag dat ze allemaal dingen al hadden bedacht, want het zijn mensen die bij Apple hebben gewerkt, dus dat zag je wel.

68
00:11:02.090 --> 00:11:08.350
Ik dacht: ja, volgens mij is dit voor Apple een kwestie van een cameraatje toevoegen aan de Apple Watch en een clip maken voor op je borst.

69
00:11:08.710 --> 00:11:20.050
Ik weet niet hoe sterk de patenten van Humane zijn, maar dit is denk ik een, uh, ik vraag me af en daar eindig ik dan even mee of je niet heel veel hiervan op de Apple Watch kan.

70
00:11:20.430 --> 00:11:24.350
Als Apple een Siri 5 zou hebben en een cameraatje erop. M-hm.

71
00:11:24.450 --> 00:11:36.949
En of het een logisch ding is echt in je dagelijks leven om constant dat Star Trek communicator op en af aan het clippen te zijn op je drie verschillende lagen als je in Nieuw-Zeeland woont om de 3.00u.

72
00:11:37.030 --> 00:11:46.130
Ja, oké, dus dat is één element gewoon de, het praktische element van, uh, van hoe, hoe, hoe, iets op je kleren is gewoon irritant, want kleren gaan aan en uit en je doet je jas aan.

73
00:11:46.170 --> 00:11:56.750
En ga mensen dan echt de hele tijd dat veranderen? Dus dat is één element. Een ander element is denk ik: er zijn praatpalen al een tijdje, uh, van Alexa tot Google Home.

74
00:11:56.870 --> 00:12:06.910
Uh, we hebben allerlei ex-- gefaalde experimenten gezien. Praatpalen zijn in ieder geval in Nederland nooit echt doorgebroken. Uh, en in de Verenigde Staten zijn er een hoop Alexa palen verkocht.

75
00:12:07.070 --> 00:12:14.950
Alleen ik weet niet hoe dat nou, ik weet niet hoe dat gebruik nou gemiddeld is. Of dat nou, uh- Vind ik ook heel moeilijk om te zeggen...een grote rol in mensen hun leven gaat spelen durf ik niet te zeggen.

76
00:12:15.030 --> 00:12:27.418
Ik denk als dat zo zou geweest zou zijn, hadden we dat denk ik geweten.Ehm, en op, op zich is dit weer een praatpaal. Uh, dan weliswaar niet aan op, op je bureau of aan je pols, maar

77
00:12:28.378 --> 00:12:38.098
als een ketting op je buik, uh, of als een broche op je buik. Is dat nou wat opeens gaat maken dat we wel tegen apparaten gaan praten? Ik zou zeggen: nee.

78
00:12:38.178 --> 00:12:47.758
Volgens mij is er niet iets aan die plek, uh, wat opeens maakt dat wij dat, dat m-wel gaan gebruiken. Want thuis, als je een praatpaal hebt, kun je dit al doen.

79
00:12:47.898 --> 00:12:57.078
En de reden waarom mensen het volgens mij niet doen is omdat die software gewoon nog steeds kut is. Dus de, de kans dat iets niet werkt wat je wil is gewoon ontzettend groot.

80
00:12:57.138 --> 00:13:04.078
En de, de, de, de, de, de, de, s-, ik wou zeggen service area, maar dat is heel lelijk om te zeggen.

81
00:13:04.178 --> 00:13:28.258
De, de aantal, aantal dingen die je er nou echt in de praktijk vaak mee gebruikt zijn timer stellen en is, uh, misschien vragen naar het weer of in het, in het, het meest, in het allergekste geval ga je iets bestellen via zo'n paal als een taxi of zo, maar je gaat niet serieus, uh, een soort van, uh, uhm, lange e-mail schrijven of echt interacteren via zo'n praatpaal, omdat gewoon de, de, de, het aantal fouten die die maakt is gewoon te groot.

82
00:13:28.298 --> 00:13:45.878
Nou, dan kom je bij, uh, ChatGPT en OpenAI. Kijk, Google gaat niet, uh, OpenAI, uh, tech gebruiken. Uhm, uh, Apple gaat niet OpenAI tech gebruiken, uh, dus, en, en OpenAI is gewoon het snelst nu met nieuwe dingen.

83
00:13:46.478 --> 00:14:09.198
En, uh, dat maakt misschien, het feit dat ze die, de, gewoon de gaafste software gebruiken, maakt misschien dat dat het element is waardoor je nu wel, uh, uh, de hele tijd gaat nadenken: huh, ik kan net zo goed, uh, reageren op, uh, op deze WhatsApp, uh, via, via m'n, uh, via m'n spraakassistent, want ik heb er vertrouwen in dat als ik, als ik dat gebruik, dat dat dan goed gaat komen.

84
00:14:09.238 --> 00:14:16.238
En dat vertrouwen heb ik nu gewoon niet met Siri of met Google Assistent of met Alexa. Want je weet gewoon dat het kut gaat zijn [lacht] als je tegen dat ding gaat praten.

85
00:14:16.278 --> 00:14:27.917
Weet je, dat twee van de drie keer het niet gaat werken, dus dan laat maar. Dan heb ik nog niet eens over Bixby. Dus, uhm, ik, misschien dat dit dan de sleutel gaat zijn waardoor die nu wel gaat werken.

86
00:14:28.018 --> 00:14:36.298
Dat is een andere as waar je het, waar je het op, uh, op kan bekijken. En inderdaad het idee dat het altijd bij je is, dat het een camera heeft.

87
00:14:36.718 --> 00:14:42.238
Misschien dat dat dan wel weer toch een soort van haakje is waardoor je er vaker aan gaat denken dat je het kan gebruiken.

88
00:14:43.058 --> 00:15:02.218
Uhm, dus bijvoorbeeld, uh, uh, ja, uh, je hebt iets opgeschreven op, uh, op een papiertje en je kan daar, uh, je kan gelijk het, weet ik veel, er staat een, een, een, een, een, een telefoonnummer op en je kan gelijk dat telefoonnummer, uh, bellen in je hoofd, uh, omdat dat telefoonnummer herkend wordt door die camera.

89
00:15:02.298 --> 00:15:11.658
Ik weet niet, misschien gaan er wel allerlei praktische toepassingen daardoor komen waardoor het meer in je systeem komt. Uh, misschien dat die camera het verschil gaat maken ten opzichte van praatpalen.

90
00:15:11.758 --> 00:15:24.438
Dus ik denk er zijn, d'r, er zijn nu een aantal dingetjes anders aan dan de praatpaal die nu toch al een jaar of vijf of nog langer zelfs op de markt is. En misschien dat dat gaat maken dat het nu wel gaat werken.

91
00:15:24.498 --> 00:15:31.458
Maar ja, ik ben het wel met je eens. Wat is nou het verschil met een Apple Watch? En dat, uh, dat is toch vooral dat Siri kut is.

92
00:15:32.398 --> 00:15:42.538
Ja, en ik denk gewoon dat, ik zie, ja, als een soort Dragon's Den, uh, so-ja, een soort roast zie ik gewoon heel veel, ja, potentiële problemen met het product zelf en het bedrijf.

93
00:15:43.218 --> 00:15:55.408
Ik zie, kijk, als dit was, uhm, uh, stel dat het, het een, een, een concept was gemaakt door een, uh, designbureau om gewoon een exploratie te doen van nieuwe user interfaces. Vette video! Tof man. Ja.

94
00:15:55.418 --> 00:16:05.678
Dit kunnen we gaan oppakken, hè. Wat ze vroeger bij Bell Labs deden en zo. Of, uh, Frog Design in San Francisco. Dat je, of Austin, dat je gewoon laat zien: is dit niet interessant jongens? Als een soort- Ja.

95
00:16:05.718 --> 00:16:15.058
Ja, misschien zelfs iemands PhD. Ja, even lullig om te zeggen. En dan denk ik dat Apple meekijkt en denkt: hmmm, even kijken hoor. Een deel hiervan kunnen we met AirPods al doen.

96
00:16:15.398 --> 00:16:25.178
Blijkbaar moeten we Siri nog verbeteren met taalmodellen. Oké, top. Mensen hebben behoefte aan een camera. Ik, kijk, ik denk: dit apparaatje zou ik alleen maar thuis gebruiken.

97
00:16:25.218 --> 00:16:34.008
Ik ga echt niet op straat hier tegen praten. Nee, is zo ongemakkelijk lijkt me ook. Maar dan ben ik thuis. Dan heb ik of speakers, praatpalen zoals jij het noemt. Precies.

98
00:16:34.038 --> 00:16:44.578
Of ik heb een Apple Vision Pro op, waar ik ook al deze dingen en foto's mee kan en nog veel meer. Of een Apple Watch. Ja, precies. En dus ie-iedere keer valt dat ding in een soort van, m-, ongemakkelijk midden van:

99
00:16:45.558 --> 00:16:51.998
ja, ik, we zoeken door je mails heen. Really? Doe je dat samen met Apple, Humane? Apple geeft jullie toegang. Doe normaal joh, dat kan helemaal niet.

100
00:16:52.038 --> 00:16:59.158
Jullie hebben waarschijnlijk de Humane Companion op Android die heel de tijd crasht en kapot gaat en niet werkt op alle vi-- [gelach] je weet, dit is, sorry man, dit gaat hem gewoon niet worden.

101
00:16:59.238 --> 00:17:09.478
Dit moet op OS-niveau komen bedoel je? Tuurlijk. En, d-dus, maar ik denk dat, dat helemaal kapot gaan bashen, dat vind ik bijna jammer. Want punt één: stoer dat ze het proberen. Punt twee: verfré-verfrissend.

102
00:17:09.518 --> 00:17:19.918
Ik vind het wel vet. Ik, ik vind, zeg maar als, als concept, gewoon om naar te kijken en product denk ik: ja, wat leuk dat jullie het proberen. Ik zie, uhm, ja, weet je waar het een beetje aan doet denken?

103
00:17:20.078 --> 00:17:29.318
En ik hoop dat ik ernaast zit, hoor, maar Amazon heeft ooit een smartphone uitgebracht met een 3D-scherm erop. [lacht] Weet je dit nog? Ja, ja. Er zaten allemaal, allemaal camera's omheen of zo. Heel wous ding was dat.

104
00:17:29.938 --> 00:17:36.597
Uh, Fire Phone denk ik. Soort Fire Pest, maar dan een telefoon. En, en [gelach] die naam was al niet goed.

105
00:17:36.658 --> 00:17:45.378
Maar, uhm, di, di, ik, ik, toen, toen dacht ik ook: ja, het heeft een beetje die gimmick dat je denkt: ja, zo'n laserprojector ding. Ja, dat kan misschien interessant zijn.

106
00:17:45.758 --> 00:17:49.758
Ja, dat het op die, op je borst zit of op je buik zoals je zegt. Ja, dat kan misschien interessant zijn.

107
00:17:50.118 --> 00:17:57.098
En, maar bij al die dingen denk ik: ja, het zijn op zich zich, op zichzelf hele interessante experimenten om te doen in de wereld van technologie.

108
00:17:58.038 --> 00:18:09.938
Uhm, wat, bedankt dat jullie dit doen, maar ja, ik, ik denk zelf dat, uh, de pen, ik weet even niet hoe hij heet. Heet ie ook pen van Rewind? De pe-pendulum? Pendulum, ja. Ja, dat- De ketting.

109
00:18:10.558 --> 00:18:23.858
Ja, en ik denk dat, uh- Moet even uitleggen, dat is een microfoonketting, dus het is een ketting die om je nek hangt en die is de hele tijd, uh, aan het opnemen, waardoor je dan later terug kan spoelen in gesprekken die je in het echte leven hebt gehad in tekst.

110
00:18:23.918 --> 00:18:33.505
Dus als je met een vriend hebt gepraat: wat zeiden we ook alweer? Dan kan ie dat vertellen.Ja en ik denk dan ja, ik, ik, ik zat meteen te denken oké, wie, wie.

111
00:18:34.886 --> 00:18:40.846
Waarschijnlijk kan je bepaalde ideeën hieruit simpelweg integreren in bestaande producten omdat de patenten niet gelukt zijn.

112
00:18:41.286 --> 00:18:50.446
En bepaalde dingen hebben zij waarschijnlijk gepatenteerd en daardoor moeten ze gekocht gaan worden. Dus dan gaan ze op een gegeven moment overgenomen worden en dan zien we dit mogelijk terug in een ander product.

113
00:18:51.106 --> 00:19:01.166
Maar zie ik multitouch achtige dingen. Destijds was er, was er een beetje een multitouch hype. Dat was ook een TEDtalk van iemand, die had een soort surface tafel en dan kon hij inzoomen op Google Maps met twee vingers.

114
00:19:01.326 --> 00:19:11.486
Pinch and skew zagen we toen voor het eerst. Het was voor mij voor het eerst in een TEDtalk. Later zit het in de iPhone. Apple koopt Finger Works die daar mee bezig is geweest. Die had waarschijnlijk ook de patenten.

115
00:19:11.506 --> 00:19:19.566
Dus ik zie Humane een beetje in die richting. Nou, dat, dat gezegd te hebben dat ik dus niet echt een toekomst zie voor het bedrijf op zichzelf, ben ik wel benieuwd,

116
00:19:20.786 --> 00:19:33.846
uhm, in hoeverre je zou kunnen zeggen dat je een schermloos apparaat hebt waar je sporadisch, uh, iets van informatie op je hand gepresenteerd krijgt. Is dat interessant? Kijk, voor mij.

117
00:19:33.886 --> 00:19:45.406
Ik, ik zit te denken zouden we even, want we klinken nu kritisch, maar tegelijkertijd, we hebben het erover en we zijn ook, er zijn echt wel elementen waar we heel enthousiast over zijn omdat het een soort potentiële toekomstvisie, uh, is.

118
00:19:45.846 --> 00:19:52.786
Het is een toekomstvisie, zeg maar. Ik ben benieuwd of we even enthousiast zouden zijn als spraakassistenten, gewoon, weet je,

119
00:19:53.846 --> 00:20:01.326
als de, als Siri en Google Assistant, gewoon de enige twee serieuze spraakassistenten, als die even goed zouden zijn als ChatGPT.

120
00:20:02.306 --> 00:20:21.066
En ik denk als, uh, Siri even goed zou zijn als ChatGPT, dan heb, zouden we nu een hele andere discussie hebben en dan zouden we puur naar de hardware kijken en dan zouden we het nu niet gaan hebben over: nou, wat gaaf dat je, uh, zo op een e-mail kan reageren of dat dat ding je e-mails kan voorlezen of dat ie, nou, wat was nog meer grappig?

121
00:20:21.386 --> 00:20:31.366
De manier waarop je muziek kon opvragen vond ik ook wel grappig. Dus hij zei: doe me muziek. Wat was het nou, het voorbeeld? Geschreven door Prince, maar niet uitgevoerd door Prince. Precies.

122
00:20:31.406 --> 00:20:42.386
Nou, dat, dat is iets dat, ik vind het heel erg des Apple om zo, uh, uh, een, een, een track op Apple Music te kunnen opstarten. Het is dat iemand mee te schrijven bij Apple waarschijnlijk.

123
00:20:42.886 --> 00:20:55.786
Jazeker, die zal die krijgen over twee jaar. Ja. Uhm, maar, uhm, ik vind dat heel vet, uh, en dat is wat ik verwacht van de soort van capaciteit van ChatGPT. En ik verwacht dat in, in Siri.

124
00:20:55.926 --> 00:21:01.486
Nou, maar stel we zouden Siri op dat niveau, we zouden Super Siri nu hebben. Zouden we op dezelfde manier naar deze device gaan kijken.

125
00:21:01.986 --> 00:21:12.766
En dan denk ik: oké, dan kijk, dan denk je dus puur aan de hardware en dan heb je het dus puur over wat echt onderscheidend is, is het projecteren op je hand en het idee dat je een soort van,

126
00:21:13.786 --> 00:21:19.106
ja, niet een geluid via je oortjes hebt, maar, ja, ze noemen het een speech bubbel.

127
00:21:19.306 --> 00:21:29.886
Dus dat er een, een, een microfo-, of een, een luidsprekertje naar boven gericht is en dat je dan muziek aan het luisteren bent uit dat ding op je borst. Ik weet niet man, dat, en, en die camera,

128
00:21:31.046 --> 00:21:42.486
dat is dan het toegevoegde element wat ik ook niet zo heel snel Apple, Apple zie nadoen, want op een Apple Watch kan, maar dit is natuurlijk grappig in de zin dat je, je hoeft niet te richten, je, je kan gewoon, het is alsof je fotografeert met je ogen.

129
00:21:43.006 --> 00:21:50.086
Ik denk dat die in een zonnebril terecht gaat komen. Precies, die gaan eerder in een. Dat Meta daar gewoon gelijk heeft, want die hebben we al. Ik wil niet toch nog een device.

130
00:21:50.396 --> 00:21:58.346
Het kost mij al, ik, ik heb al twintig zonnebrillen per maand koop ik, grapje, maar bijna waar, omdat ik er de hele tijd op ga zitten en ze verlies. Moet ik dan nog een ding erbij?

131
00:21:58.766 --> 00:22:05.956
Ja, maar een bril is het ook niet, want een bril ga je ook zeggen van: ja, ik ga nu vandaag geen zonnebril op zeggen. En ga je nou echt verwachten van mensen die geen bril dragen dat ze zo wel een bril gaan dragen?

132
00:22:06.026 --> 00:22:12.446
Misschien is een broche dan helemaal geen gek idee, maar ergens denk ik: het boeit me ook niet. Dit is inderdaad wat jij zei: het gaat bij de kijkshop liggen.

133
00:22:12.946 --> 00:22:23.126
Ja, dit gaat gewoon cameraatje om je nek hangen en microfoontje om je nek hangen, gaat gewoon een ding worden en we gaan nu zoeken naar. Dat ben ik, dat, dat is misschien nog de meest interessante discussie.

134
00:22:23.166 --> 00:22:35.286
Ja, want daar, daar zat ik ook naar te kijken. Gewoon los van dit bedrijf en dit product. Maar gewoon is dit een ding? Hè, is die, is die, uh, uh, zo'n pendulum, uh, van Rewind AI of destijds de Life Cam.

135
00:22:35.646 --> 00:22:44.046
In iedere smart-tv zit tegenwoordig een camera en een, en een microfoon en dat vinden we allemaal prima. Ja, maar ik zie ook niet alleen maar privacy nerds om mij heen overal stickertjes op plakken.

136
00:22:44.146 --> 00:22:50.586
Echt veel mensen om me heen, ook zelfs op smartphones zie ik steeds meer stickertjes op camera's, dus ik ben benieuwd hoe makkelijk dit landt.

137
00:22:50.646 --> 00:23:01.146
Maar ja, ik, dus ik ben nog een beetje, misschien is dat meer hoop dan realiteit, [lacht] dat ik me afvraag, uhm. Kijk, ik zit nu, ik zit nu te kijken.

138
00:23:01.686 --> 00:23:14.706
Stel, kijk, een deel van deze demo van, uh, die AI-pen is een AI-demo. Ik wil durf wel te zeggen de helft, dus die kunnen we gewoon afschrijven. Sorry man, dat is gewoon een demo van ChatGPT.

139
00:23:14.946 --> 00:23:20.826
Ja, het is gewoon een wrapper app die je gemaakt hebt. Oké, vet, weet je, maar je hebt geen moats, zoals ze zeggen in Silicon Valley, dus forget it.

140
00:23:21.086 --> 00:23:31.286
Dus dan heb je dan de andere helft van het verhaal is, uh, niet de andere helft. In die andere helft van het verhaal die nog overblijft in hun verhaal zitten een aantal zaken die kunnen met AirPods.

141
00:23:31.966 --> 00:23:41.406
Daar verkoopt Apple er echt heel erg veel van. Met een hele goede microfoon in. En ze hebben ook nog een operating system en je smartphone, dus a-, z-, all bets on Apple en Google.

142
00:23:41.746 --> 00:23:53.706
Sorry, uh, nou, dan hou je nog X procent over en dat is, uh, we hebben een interessante nieuwe interface gemaakt met die laser. Nou, ik moet zeggen, die laser voelt heel erg Google Glassy voor mij.

143
00:23:53.966 --> 00:24:04.066
Ik, ik, als in, ik wil hem een keer testen. Ik vind het vet en ik wil een keer een laser op mijn hand zien en waarschijnlijk vind ik het daarna niet meer zo interessant. Maar wie weet. Ik laat me graag verrassen.

144
00:24:04.566 --> 00:24:04.976
Dan is het nog.

145
00:24:05.006 --> 00:24:20.926
Het is gewoon weer een, het is gewoon weer een variant van ofwel een Google Glass waar er een blakje, blokje met glas voor je oog zit, ofwel het is een bril waar dan, uh, op je, op je, op het, op het, uh, op het glas geprojecteerd wordt, of het wordt direct in je oog geprojecteerd of het wordt een lens, zeg maar.

146
00:24:20.946 --> 00:24:31.306
Het zijn allemaal variaties van hetzelfde ding, namelijk tekst in je vizier laten zweven. Ja, een stukje augmented reality eigenlijk, hè. Ja, precies. En dit is dan een hele vroege versie met dat je het op je hand doet.

147
00:24:31.346 --> 00:24:42.236
Ja, ik weet niet, gewoon even, gewoon als mensen onder elkaar. Ga je nou echt je hand in de lucht steken om daarTeksten op te lezen. Het is gewoon dat. Ja, ik weet niet, dit lijkt me dan de weddenschap.

148
00:24:42.496 --> 00:24:50.476
Over vijf jaar kunnen we elkaar hierop aanspreken. Soort van is dit een ding geworden? En ik zou nu zeggen nee, dat gaat geen ding worden dat je op je hand gaat projecteren. Maar ja, ik denk dat jij het nou.

149
00:24:50.596 --> 00:24:59.896
We lopen nu allemaal met oordopjes de supermarkt in en voeren dan gesprekken met mensen en vinden dat ook soort van normaal. Dus ja, we wennen aan, aan.

150
00:24:59.976 --> 00:25:11.256
Ja, maar ik denk als ik jou op straat tegenkom en je staat ergens te wachten op iets en ik zie jou in je hand kijken, dan waarschijnlijk zit daar dan een smartphone in die hand omdat je heel even in je zak gevoeld hebt naar die smartphone.

151
00:25:11.296 --> 00:25:22.416
Ja, fair enough. Ja, dat zeg maar van als jij iets in de palm van je hand aan het lezen bent, is het het scherm van je smartphone. Dat denk ik. Maar ik merk wat jij ook al zegt dat we een soort aan het roasten zijn.

152
00:25:22.616 --> 00:25:30.976
Wat ik dus ergens jammer vind, want dat is dan weer gewoon heel vet. Die video is echt heel vet en eigen. Ja, ik wil het eigenlijk gewoon heel vet vinden en ik vind het. Ik.

153
00:25:31.056 --> 00:25:44.836
Ik werd er ook wel en ik ben er ook wel enthousiast over. Ook omdat ze het ja, ik gun het dan misschien ook wel weer een soort nieuw nieuwkomer in zo'n industrie en ze zitten dan kijk waar het voor mij.

154
00:25:44.996 --> 00:25:55.336
De video eindigt eigenlijk met accessoires, maar daar net voor hebben ze Humane Center laten ze zien. Heb je dat? Was je zover gekomen? En dat is toen dacht ik oké, nu moet ik uitleggen.

155
00:25:55.356 --> 00:26:02.176
Dus dat is een soort van de software versie van het het dashboard wat je dan op je computer ziet met bijvoorbeeld de foto's die je gemaakt hebt.

156
00:26:02.196 --> 00:26:13.016
Wat wel cool is, want je kan dus zeggen je kan dus op je altijd op je borst klikken en een foto maken, maar ook bijvoorbeeld een notitie aan jezelf of dat je informatie hebt opgevraagd.

157
00:26:13.076 --> 00:26:26.236
Al die die hele historie van alle interactie die je met dat ding gehad hebt is in een hele virtuele of in een hele visuele interface met allemaal cards en gewoon heel kleurrijk en eigen op zich een soort bento box.

158
00:26:28.096 --> 00:26:37.876
Ja, dat is het soort van de de, de companion app zo te zeggen. Ja, het voelde voor mij ook een beetje als iCloud. Com of je Google omgeving online zeg maar waar je foto's in staan en al die icoontjes.

159
00:26:37.886 --> 00:26:39.796
Een soort van je operating system op de web.

160
00:26:40.216 --> 00:26:48.316
Dat geeft op zich niet, maar ja dan Dan kreeg ik natuurlijk weer het idee van oké, dat dat had dan misschien echt een van die drie daadwerkelijke operating systems moeten zijn. Juist.

161
00:26:48.356 --> 00:26:56.806
Ik zit wel te denken dat nu we het hier zo over hebben. Ik ben heel, heel benieuwd wat er gebeurd is, want het zijn volgens mij deels mensen die bij Apple gewerkt hebben.

162
00:26:57.576 --> 00:27:10.836
Ehm, dit Is dit dan daar intern gepitcht en niet gelukt? Want als je dit ergens wil maken. Ik bedoel, ik weet dat Siri ruk is, maar stel dit was toch als je nou Siri Super Siri had gelanceerd samen met deze komen.

163
00:27:11.516 --> 00:27:24.276
Ja dan dan. Ik weet niet. Ik ben heel benieuwd. Want zeg maar qua hardware maken, qua accessoires, qua fashion, qua Apple Watch OS. Apple heeft alles in huis om dit ding te maken, dus ik ben. Ik ben heel benieuwd.

164
00:27:24.976 --> 00:27:32.396
Is het dan intern daar niet gelukt voor deze groep mensen om het om om. Die hebben misschien gewoon gezegd nou dan willen wij ervandoor met dit idee, want als jullie het niet gaan doen, willen wij het doen.

165
00:27:32.436 --> 00:27:46.196
Ik noem maar wat. Of ja, is er bij Apple ook iets gaande in deze manier? Ik denk zelfs dat Apple zelf dat Apple deze visie wil gaan waarmaken met een combinatie van de AirPods, Apple Watch en iPhone.

166
00:27:46.216 --> 00:27:55.856
Het enige wat ze dan missen is het feit dat je een foto kan maken zonder dat je die iPhone uit je zak hoeft te halen. That's it. Want de rest kunnen ze eigenlijk volgens mij allemaal doen.

167
00:27:56.316 --> 00:28:10.876
En dat is dan een kwestie in het geval van Apple van iets langere tijd. Ja dus. Ja dus. En in dat opzicht, ik dacht wel ehm, ja, ik zat. Ik zat laatst bijvoorbeeld te denken ik zou heel graag een

168
00:28:11.816 --> 00:28:19.836
misschien een soort samenvatting van mijn dag willen hebben. Misschien aan het begin en het eind of zo. We hebben het wel. We hebben natuurlijk gehad over Rewind AI. Ik zou.

169
00:28:20.276 --> 00:28:27.096
Ik Ik zit steeds een beetje hardop te en en niet altijd hardop, want dan denken mensen in de bus waarom praat je over deze dingen? Hou gewoon je mond.

170
00:28:27.196 --> 00:28:36.776
Maar ik bedoel meer ik zit dan een beetje te dagdromen van oké, stel dat ik een taal model zou kunnen draaien zelf en dat dat komt steeds dichterbij en ze worden steeds beter.

171
00:28:36.796 --> 00:28:44.856
Daar hebben we het al vaak over gehad en die durf ik dan los te laten op mijn data. Jij durft dat iets meer dan ik, maar ik ga dat op een gegeven moment ook durven.

172
00:28:44.916 --> 00:28:51.176
Als ik maar weet waar het draait of als ik het bedrijf wat meer vertrouw die dat dan voor mij doet. En dat hij dan s ochtends misschien een nieuwe wekker.

173
00:28:51.656 --> 00:29:02.416
Dus dan is het eerst even mijn standaard wekker geluid en dan fade dat over in iemand die zegt joh, dit is hoe je dag eruit ziet. Ik zie nog een mailtje met prioriteit voor je klaar. Klinkt stressvol, maar oké.

174
00:29:02.716 --> 00:29:11.456
Ja, dit is je dag eruit zien. Go go, go, go, go, go. Ik bedoel. Soort McKinsey McKinsey consultant in je wekker. Leuk, hè?

175
00:29:11.876 --> 00:29:20.356
Nee, dit zou dan gewoon Gandalf The Grey zijn die je heel rustig wakker maakt en zegt je kan nog even blijven liggen, want je afspraak is verschoven. Dat lijkt me fijner ja.

176
00:29:20.956 --> 00:29:31.016
En nu zit ik natuurlijk meteen weer in die agenda. Maar het kan natuurlijk ook zijn van joh, je hebt een beetje een drukke week voor de boeg. Ik Ik stel voor om deze en deze afspraak te verplaatsen. Vind je dat goed?

177
00:29:31.056 --> 00:29:43.836
Ik noem maar wat. Een soort van hulpje in mijn leven die een klein beetje structuur aanbrengt en wat rust aanbrengt. En ehm, ja. Dan is vooral de vraag waar hangen de microfoons en staan de speakers?

178
00:29:44.696 --> 00:29:54.316
Want dan kom je een beetje op de Alexa visie wel van Amazon, die natuurlijk probeert die microfoon en app. Sorry Google met hun. Is het de Google Assistant?

179
00:29:54.676 --> 00:30:04.475
Die zit dan natuurlijk ook in ieder horloge en ieder speakertje en dat is overal hetzelfde apparaat zeg maar. Of zelfde entity. Ja, daar is het. Daar is het nu nog heel erg zoeken.

180
00:30:04.536 --> 00:30:17.356
Het is latency die het probleem is in het geval van Apple de kwaliteit die het probleem is gewoon inhoudelijk. Maar ehm, wij zien allebei volgens mij wel. Ik snap wel dat ze die visie zo achterna zitten,

181
00:30:18.376 --> 00:30:26.156
omdat ik denk dat er wel een punt kan komen waarop het bruikbaar wordt. Of is niet een hele logische plek waar je uiteindelijk dit kan gaan stallen.

182
00:30:26.176 --> 00:30:34.256
En exact dit ding bij Microsoft, die al verbonden zijn met OpenAI, die geen eigen spraakassistent hebben.

183
00:30:34.276 --> 00:30:47.204
Ik bedoel, we moeten Cortana niet uitvlakken, maar laten we het erop houden dat ze geen eigen spraakassistent hebben. Ehm.Of clippy. En dus daar aan de aan de soort van aan die kant is het er niet.

184
00:30:47.644 --> 00:31:00.224
Microsoft is wel heel erg ook met enterprise bezig en ik kan me dus voorstellen dat een praatpaal hebben voor Microsoft eigenlijk gewoon een noodzaak gaat zijn. Helemaal op kantoor voor hun enterprise aanbod.

185
00:31:00.264 --> 00:31:12.724
Omdat meetings in het echte leven die niet hybride zijn en die niet via Teams zijn. Daar willen zij gewoon transcripties van kunnen gaan maken met, met nieuwe visie van Office 365.

186
00:31:13.664 --> 00:31:22.484
Met co-piloot bedoel ik dus overal AI in. Dus dan is gewoon een offline gesprek voeren wat niet wordt opgenomen is gewoon ja, dat is gewoon geen optie zou ik.

187
00:31:22.724 --> 00:31:35.764
Zou ik zeggen dat daar geen, geen, geen mogelijk geen systeem voor is, zeg maar van Microsoft. Ehm, en dan is misschien zo'n, zo'n, zo'n, een eigen praatpaal hebben in welke vorm dan ook.

188
00:31:35.844 --> 00:31:45.804
Het kan een horloge zijn en Microsoft heeft het voordeel van het vanaf niks kunnen doen. Zij hoeven het niet in de vorm van een horloge te doen, want het is gewoon geen product wat ze hebben.

189
00:31:46.683 --> 00:31:58.144
Die telefoons die ze maken, die zijn ja zo zo. Maar ze doen wel echt hun best, dus het zou wel binnen de. Het zou wel in de visie passen om eigen hardware te maken als om er een service product van te maken.

190
00:31:58.524 --> 00:32:10.504
Het ziet er eerlijk gezegd ook wel uit als een service product. Ik heb veel service producten gebruikt. Ja, het is een beetje Microsoft, die zou ik zeggen. Ja zeker. En eh, ja. En dat laser ding is niet nodig.

191
00:32:10.544 --> 00:32:20.564
Maar ik denk gewoon als ik, als ik het probeer te combineren met werk, want daar. Ja, dat dat is gewoon een gemist element als je het hebt over spraak, over spraakassistent.

192
00:32:20.584 --> 00:32:30.464
Het gaat altijd over koken en het gaat over wekkers en andere dommige consumententoepassingen. Maar ja, waar, waar het geld verdiend wordt is op het werk.

193
00:32:30.884 --> 00:32:44.584
En ik zou eh, ik zou het kunnen voorstellen dat Microsoft juist die ja die die afslag neemt en dat dit ding dan best wel handig zou kunnen zijn met een soort van multi directionele microfoons omdat iedereen er één op zijn borst heeft.

194
00:32:45.144 --> 00:32:55.164
Maar hoe hoe meer ik hier over nadenk. Ik heb namelijk. Ik zit nu een heel verhaal te houden over humane is niet een soort van zeker van haar zaak als bedrijf en product.

195
00:32:55.224 --> 00:32:59.244
Want ja, ik hoop dat de patenten sterk zijn, maar ook daar kunnen licenties op genomen worden.

196
00:32:59.404 --> 00:33:10.984
Volgens mij is dit iets wat uiteindelijk een feature is of een product is van een ander bedrijf die op een operating system level zit, zoals wij dat steeds noemen. Ja, maar als ik dat dan doortrekt doortrekt. Kijk

197
00:33:12.664 --> 00:33:22.644
open AI. Microsoft zit daar best wel diep in. Ik kan niet online vinden hoeveel procent ze hebben, maar ze hebben drie keer geïnvesteerd kan ik vinden. En vrij vroeg al Microsoft in open AI.

198
00:33:24.444 --> 00:33:32.444
Maar dat ze aan het begin hebben gedacht wij laten dit bedrijf buiten Microsoft verder groeien is alleen maar slim, want dan heb je niet problemen met bedrijfscultuur.

199
00:33:32.704 --> 00:33:40.524
Want het kan ook heel erg iets tegenhouden doordat je het in je grote olietanker stopt. Laat die speedboot nog maar even gaan. Nou, dat open AI een speedboot is, is wel helder.

200
00:33:40.604 --> 00:33:54.364
Gaan we het straks nog niet even, maar daar gaan we het straks over hebben. Maar ik wil toch nog heel even wachten om het over hun aankondigingen te gaan hebben van open AI. Omdat ik ook denk eh, de visie die zij hebben.

201
00:33:54.864 --> 00:34:09.244
Nou weet ik niet of de visie die wij hebben, jij en ik. En dat is niet omdat wij het hebben bedacht, maar omdat we het zien van die, ja, toch wel veel dieper geïntegreerde buddy. Die super Siri kan open AI dat wel?

202
00:34:09.524 --> 00:34:25.464
Want of moet je eigenlijk een besturingssysteem laag bedrijf of in in entity zijn? Wie naast Google en Apple en Microsoft? Die drie. De drie grote. Nee, eens. Kunnen dit eigenlijk. Eens. Ja. Ja toch? Want ik ik dus want.

203
00:34:25.504 --> 00:34:35.784
En bij Microsoft heb ik dan nog een vraagteken omdat ik door jou nu net weer bewust word dat ik denk nee, maar dat kan dan toch op Windows Phone? O nee, op hun smartwatches. O nee, hun brillen.

204
00:34:36.184 --> 00:34:45.544
O nee, dat heeft Microsoft allemaal helemaal niet. Microsoft zit heel safe in corporate. Daar kunnen zij los. Zij gaan gewoon. Waarschijnlijk zit daar ook nog meer geld dan in de in de consumer market.

205
00:34:45.964 --> 00:34:57.944
Dus ik denk dat Microsoft, als je de al in Ultra Cortana wil zijn op het gebied van de operating system of van officieel mensen, dat kan Microsoft, daar heb je helemaal gelijk in.

206
00:34:58.464 --> 00:35:09.304
Apple kan het samen met Google doen voor de consument en in het geval van Google en voor bedrijven. Want onderschat Google niet in de in de in de bedrijfssfeer. Apple een stuk minder. Ja, ja.

207
00:35:09.324 --> 00:35:21.724
Maar wie dan nog meer naast deze drie? Nee, nee. Eens. En en en En dan vraag ik me af van. En dat is misschien gewoon mijn naïviteit als het gaat om hoe bedrijven werken en hoe intellectueel eigendom werkt.

208
00:35:22.424 --> 00:35:34.364
Waarom is open AI nog niet helemaal opgegeten? Ik denk dat omdat het een beetje duur is, dat denk ik. Veel geld kost. Ja, en dat zal alleen maar duurder worden nu.

209
00:35:34.644 --> 00:35:46.644
Ik las iemand de vergelijking maken tussen Apple en Intel tien jaar geleden. Dus bedrijven die totaal van elkaar afhankelijk zijn. En want dat is gewoon zo, die, die afhankelijkheid is wederzijds. En

210
00:35:47.844 --> 00:35:57.864
bij Apple was het zo Intel maakt de chips, wij doen de rest en hier is het open. Hij maakt de AI en Microsoft doet de of de. Sorry. Microsoft levert de servers en open AI doet de rest.

211
00:35:58.584 --> 00:36:09.464
Ja maar goed, als je, als je natuurlijk echt wil gaan integreren met ehm, nou ja, dat het dat, dat het co-piloot is en dat het eigenlijk zeven punt vier is. Ja, dat is het belang van het van het bedrijf.

212
00:36:09.544 --> 00:36:21.124
En kijk hoe, hoe ongelooflijk hard ze daarmee gaan. Ik vind Microsoft echt wel een indrukwekkend bedrijf hoor op dit moment in de tijd. En de snelheid waarmee het Windows elf in gaat en, en, en. Al hun Office tools.

213
00:36:21.184 --> 00:36:27.824
En nou ja, zullen we het over open AI gaan hebben? Ja, ja. En dan denk ik dan nog voordat we dat doen wil ik nog even zeggen dat nu hoor ik.

214
00:36:27.864 --> 00:36:38.484
Ik hoor een soort stemmetje in mijn hoofd dat zegt ehm, ja, waarom moet Microsoft open AI overnemen als ze een goede investering hebben en goede afspraken over het delen van, van hun technologieën?

215
00:36:38.684 --> 00:36:48.464
Ja, misschien toch zolang Microsoft moet er, dan is het niet een beetje naïef van mij om te denken dat het alleen met een overname. Misschien kan je gewoon een belang hebben en lekker samen bestaan.

216
00:36:48.504 --> 00:36:56.004
En inderdaad denk ik op die manier super diepe integraties gaan doen op OS niveau. Ja. Ik bedoel Intel en Apple hebben elkaar ook nooit overgenomen.

217
00:36:56.104 --> 00:37:06.212
Precies, dat is denk ik het het antwoord.Kijk, je wil niet iedere avond bezig zijn met een gastronomisch avontuur toch? En dat snapt Lazy Vegan. Dit zijn freeze maaltijden die je gewoon in huis wil hebben.

218
00:37:06.612 --> 00:37:17.132
Geniet van lekker eten binnen 8 minuten zonder schuldgevoel. De nieuwste smaak is Korean Noodles. Een feestje voor je smaakpapillen en een groentebom. Van romanesco tot boerenkool, het zit erin.

219
00:37:17.652 --> 00:37:24.252
En het zit allemaal in een knalroze verpakking die je kan kopen bij Albert Heijn. En wat het nou Koreaans maakt? Het heeft gochujang.

220
00:37:24.392 --> 00:37:34.762
Dat is een typische Koreaanse rode peper pasta en ze hebben het samengevoegd met noodles, edamamebonen en shiitake. Dus ga die Korean noodles proberen. Voor meer informatie en het complete assortiment.

221
00:37:34.912 --> 00:37:48.952
Check Lazy Vegan.com. De link vind je ook in de shownotes. Oké, OpenAI kondigde een week geleden op hun Dev Day hun eerste Dev Day, uh, uh, een aantal nieuwe dingen aan. Dat was best wel vet, hè? Het was heel vet. Zeker.

222
00:37:48.992 --> 00:37:56.432
Ik vond het vet, man. Ik was weer een beetje excited. Ik dacht: o leuk, dit is waar ik niet- Waar kwam, waar kwam jouw excitement vandaan? Voordat we gaan hebben over wat er aangekondigd is.

223
00:37:56.592 --> 00:38:07.012
Nou, ik kijk, ik kijk vaak de andere Dev Days en dingen, ja, die, die, die raken mij dan niet. Ik heb denk een stukje nostalgie naar een soort Jobsian presentaties van vroeger.

224
00:38:07.072 --> 00:38:14.572
Dat is ook omdat ik toen nog een stuk jonger en naïever was, denk ik. Maar ik vond dat, het was echt vet man. Wij deden echt van die watch parties en zo met mensen. We waren echt super nerdy. Ja.

225
00:38:14.692 --> 00:38:22.612
Dat we echt samen pizzaatjes gingen halen en dat dan gingen kijken. Nou, dat is al, uh, heel lang voorbij. Zeker nu ze het allemaal zijn gaan opnemen bij Apple doet het me eigenlijk heel weinig.

226
00:38:22.652 --> 00:38:30.012
Ik zit gewoon een commercial te kijken van anderhalf uur. Omdat het zo slick is. Ja, zo, precies. Het is gewoon helemaal niet authentiek. Of niet helemaal niet authentiek, maar een stuk minder authentiek.

227
00:38:30.612 --> 00:38:38.322
Uh, dus dat, dat doet mij nu niet meer zoveel. Ik vond dit wel, uh, ik weet niet, wa-was het live? Het voelde live. Uh, ja, volgens mij was het live.

228
00:38:38.352 --> 00:38:45.152
Ja, nou, dat helpt dan, kan je lekker stotteren en foutjes maken en misschien toch het verkeerde grapje maken. Nou, dan ben ik al, zit ik al meer op het puntje van mijn stoel.

229
00:38:46.172 --> 00:38:51.672
En ik merkte bij mezelf dat ik echt dacht: oeh, ik ben echt benieuwd, wat gaat er nu gebeuren?

230
00:38:51.732 --> 00:39:05.042
Weet je, ik bedoel misschien een beetje overhyped van, hè, hij zei op een gegeven moment, uh, uh, Sam Altman: we hebben een, uh, we gaan een nieuw model lanceren en dan zit natuurlijk die hele zaal van: dat zal me toch niet gebeuren, dat ze nu alweer GPT-5 erop gooien en dat, dat we weer allemaal in paniek gaan raken.

231
00:39:05.062 --> 00:39:11.012
Of een deel van ons. Dat, dat viel allemaal wel mee. Nee, ik merkte een soort, uh, natuurlijke nieuwsgierigheid.

232
00:39:11.152 --> 00:39:21.072
Ik was heel benieuwd en ik vond het hele format waarin het gedaan werd en de manier waarop, het was voor Sam Altman de eerste keer volgens mij dat hij op deze manier, nou, niet op een podium stond, maar dat hij voor OpenAI dit deed.

233
00:39:21.832 --> 00:39:24.392
Ja, ik, uhm, ik vond het interessant.

234
00:39:25.872 --> 00:39:44.692
Inhoudelijk, uh, de, de grote, volgens mij twee grote dingen, namelijk een nieuwe versie van GPT-4, GPTV, GPT-4 Turbo met een groter context window waardoor je er een boek in kan, uh, zetten en dat het prompt dan niet meer zegt, of dat dat ding dan niet meer zegt na het invoeren van je prompt: dit is een te lange vraag, uh.

235
00:39:44.832 --> 00:39:56.672
Je mag kortere vragen stellen. Ja, een heel relevant feit. Uh, hij is sneller. Hij is goedkoper, uh, dus dat zijn allemaal belangrijke dingen. Had jij toen niet meteen zoiets van: huh, hoe kan dit nou weer?

236
00:39:56.772 --> 00:40:06.652
Dat ding heet Turbo. Hij is sneller en hij is goedkoper. Ik was meteen verbaasd. Ik ben niet meer verbaasd. Het ding is gewoon slechter. Het ding is gewoon slechter, zeg je. Ja, het is een uitgekleed model.

237
00:40:07.492 --> 00:40:19.732
Het is heel sneaky. Hij heet Turbo. Supergoede naam, want daarmee zeg je, je zegt, je zou kunnen denken: wauw, dat, dat, dit is een soort turbo versie. Hij is nog beter. Hoe is het een uitgekleed model?

238
00:40:20.292 --> 00:40:31.112
Nou, de, ze hebben uiteindelijk, om te zorgen dat het model sneller kan draaien en ook minder resources kost, hebben ze hem eigenlijk, uh, verarmd, zeg maar, op een intelligente manier.

239
00:40:31.152 --> 00:40:35.172
Een beetje, het is een, er zitten minder, uh, er zit minder data in, in essentie. M-hm.

240
00:40:35.192 --> 00:40:46.772
Het is een wat, hè, kijk, de, de testen die ze ermee hebben gedaan is, waar GPT-4 82% scoort op een test, doet Turbo 76% op diezelfde test. Ja, ja. En dan, dus Turbo,

241
00:40:47.972 --> 00:40:56.912
ik weet, ik heb geen metafoor hiervoor, want het is een beetje een vreemde nieuwe wereld van taalmodellen. Maar Turbo betekent: heel veel van wat je had, sneller en goedkoper.

242
00:40:57.252 --> 00:41:07.852
De balans tussen, tussen snelheid, geld en zo is beter. Maar denk niet dat het een daadwerkelijk inhoudelijk beter model is, want dat is het zeker niet. Het is een beetje de S-versie van iPhones.

243
00:41:07.912 --> 00:41:17.912
Het is niet, uh, de cutting edge meer, maar wel goedkoper. En, uh, het ziet er hetzelfde uit. GPT, GPT SE. Ja, of GPT 3.8. Zoiets.

244
00:41:17.972 --> 00:41:29.852
Ja, maar het, de, het punt is natuurlijk met al dit soort dingen is misschien het feit dat je die context window kan vergroten, uh, of dat die groter is en dat het sneller en goedkoper is, maakt het toch een beter model.

245
00:41:30.272 --> 00:41:39.482
Uh, uh, wat bedoelen, dan moeten we toch eerst met elkaar bepalen hoe we bepalen of iets goed is? Nou, op al die vlakken van snelheid, prijs en context window. Beter, beter, beter.

246
00:41:40.052 --> 00:41:49.992
Maar antwoorden geven inhoudelijk minder. Dus de, er is gewoon een andere balans gekozen tussen kwalite-kwaliteitsfactoren. Fascinerend.

247
00:41:50.032 --> 00:41:54.972
Ja, ik, want ik dacht echt: wacht even, ga, dit is echt heel vreemd om, want weet je waardoor het kwam?

248
00:41:55.092 --> 00:42:04.232
Ik gebruik dit om mee te testen en zo en GPT-4 is nog even duur en traag, dus ik dacht echt: jullie hebben echt een heel raar product uitgebracht als die oude nog bestaat.

249
00:42:04.372 --> 00:42:13.992
En toen was het: nee, die oude is echt wel inhoudelijk beter. O, oké. Ja. Is dit dan ook nodig om dat, om dat context window groter te kunnen krijgen?

250
00:42:14.052 --> 00:42:17.692
Moet je daarvoor het model uitkleden of heeft dat eigenlijk niks met elkaar te maken?

251
00:42:18.372 --> 00:42:24.512
Uhm, voor zover ik weet heeft het zeker met elkaar te maken, omdat als het context window groter wordt, wordt het veel zwaarder om te draaien.

252
00:42:24.592 --> 00:42:27.852
Dus als je het dan minder zwaar wil maken, moet je het model weer kleiner maken. Juist.

253
00:42:27.932 --> 00:42:43.332
Ik denk dat ze hem, je kan natuurlijk zeggen, ik, ik denk dat het een beetje zo gegaan is dat ze het model zijn gaan optimaliseren, hè, door dingen eruit te halen die misschien minder nodig waren en dan constant kijken hoe die op die test blijft presteren en dan een soort onderlaag leggen van: hij moet niet slechter worden dan 3,5, hè.

254
00:42:43.392 --> 00:42:50.892
Ja. Want dan, 3,5 Turbo bestaat ook al een tijd. M-hm. Ik, ik ben daar destijds niet ingedoken waarom die Turbo heette, maar dat is precies hetzelfde verhaal.

255
00:42:50.932 --> 00:42:54.172
Ik heb dat gewoon toen niet gelezen omdat ik dat niet zo interessant vond en nu wel.

256
00:42:54.792 --> 00:43:04.972
Uhm, maar ik denk dat je op een gegeven moment ziet van: hé, wacht even, we, we kunnen nu die, uh, die context window keer vier doen, uh, terwijl die even snel blijft.En dan kan je gaan kijken.

257
00:43:05.032 --> 00:43:11.271
Maar wacht even, we kunnen hem zelfs keer vier doen terwijl hij drie keer zo snel wordt. En op die manier kan je natuurlijk een beetje die balans gaan zoeken.

258
00:43:11.832 --> 00:43:20.912
Dus ik denk dat dat op die manier gegaan is en dat je dan natuurlijk ook zegt maar als hij sneller is, dan gebruikt hij ook minder lang compute resources, dus goedkoper.

259
00:43:21.072 --> 00:43:29.752
Want dat prijsje wat er achter staat x cent per, per token of per. Dat is omdat het uiteindelijk energie is, ergens aan de achterkant het meest. Ja.

260
00:43:31.132 --> 00:43:40.852
Nou, we gaan het dadelijk over GPT's hebben, maar nog even, even nog bij, bij dit onderwerp blijven. De GPT-4 Turbo. Hij kan inmiddels ook, uh, context switchen.

261
00:43:41.152 --> 00:43:51.252
Dus, uh, een van de kleine voorbeelden, maar misschien voor programmeurs een hele grote, is dat hij beter Jason spreekt. Dus hij kan gestructureerdere tekst teruggeven.

262
00:43:51.692 --> 00:43:58.092
Wat vooral weer belangrijk is als we straks, uhm, GPT gaan gebruiken in andermans apps. Dus we willen natuurlijk.

263
00:43:58.152 --> 00:44:07.971
Wat wij willen als mensen is dat ik straks in de Airbnb app kan zeggen: doe mij huisjes in op Terschelling met een trampoline buiten.

264
00:44:08.452 --> 00:44:16.572
Omdat dan GPT door alle foto's gaat van huisjes op Terschelling om object, objectherkenning te kunnen doen en dan trampoline, uh, trampolines te herkennen.

265
00:44:16.652 --> 00:44:28.892
En dan wil een programmeur van Airbnb, wil niet de letterlijke tekst: er staat een trampoline in deze tuin. Die wil een Jason gestructureerde Jason file hebben met ja of nee daarin, met, met de property trampoline.

266
00:44:29.492 --> 00:44:42.392
En, uhm, dat kan hij dus beter. En hij kan dus tussen modellen, uh, actief switchen. Je hoeft niet meer met de hand te zeggen: ik wil nu code interpreteren of ik wil nu, uh, DALL-E gebruiken om plaatjes te genereren.

267
00:44:42.452 --> 00:44:53.992
Dat is nu iets. En dus ook welk model ga je gebruiken? Ga ik, uh, het web op of niet? Al die dingen doet hij nu zelf. Ja, kan jij, dan ben ik meteen benieuwd, want kan jij me misschien hierbij helpen?

268
00:44:54.072 --> 00:45:03.212
Want ik heb dus, dus geen grap. Ik gebruik ChatGPT gewoon de client app. We hebben het nu over de API voor ontwikkelaars, maar dat ding gaat nu de hele tijd op Bing lopen zoeken terwijl ik dat niet wil.

269
00:45:03.292 --> 00:45:12.932
Kan ik dit ergens uitzetten of zo? [laughs] Ik vind het echt super irritant. Ik wil gewoon dat hij, ik wil het taalmodel gebruiken. Ik neem aan dat je tegen het ding kan zeggen: gebruik geen Bing. Is dat de oplossing?

270
00:45:13.212 --> 00:45:24.432
Ik neem aan. Ik ga nu in mijn system card zeggen: jij mag nooit naar buiten toe om dingen te gaan googlen. Maar dit, op het moment dat je GPT's gaat maken en misschien moeten we daar toch maar over beginnen.

271
00:45:24.472 --> 00:45:32.612
Dan vraagt hij dit ook letterlijk: welke elementen wil je? Welke, welke dingen wil je dat we gebruiken? Dus dat is, is het volgende, uh, grote ding.

272
00:45:32.912 --> 00:45:49.632
De introductie van GPT is het idee, het idee dat je, nou ja, eigenlijk een soort van chats, nieuwe chats beginnen met een oneindig geheugen dus, waarbij hij onthoudt wat je eerder hebt gezegd, ook al heb je de app afgesloten of het ding afgesloten met een eigen system prompt per chat.

273
00:45:49.912 --> 00:45:57.152
En het gevolg daarvan is dat je dus GPT, uh, of dat je ChatGPT kan gaan gebruiken met een bepaald doel.

274
00:45:57.432 --> 00:46:08.492
Dus je kan een doel bedenken en een doel zou kunnen zijn wat, wat OpenAI zelf aanlevert, is bijvoorbeeld een onderhandelings, uh, ja, hoe moet ik dit noemen? GPT bij gebrek aan een beter woord.

275
00:46:08.592 --> 00:46:17.392
Jezus Christus, hoe verzinnen ze het? GPT. Maar oké, een onderhandelings GPT, die heet The Negotiator en die heeft instructies gekregen.

276
00:46:17.432 --> 00:46:28.672
Wat die instructies zijn weten wij niet, maar dat is een prompt waarbij je die dus waarschijnlijk uitlegt hoe je moet onderhandelen. Maar ook een document. En dat is de grap van, van GPT's maken.

277
00:46:28.712 --> 00:46:37.452
Je kan documenten aanleveren op basis waarvan dat ding antwoorden gaat geven. Dus dat kan een boek zijn, maar dat kan ook, uh, weet ik veel, lesstof zijn.

278
00:46:37.512 --> 00:46:43.672
Of dat kan, uh, een plaatje zijn of wat dan ook, maar hij, hij gaat dan dat gebruiken bij het geven van antwoorden.

279
00:46:43.712 --> 00:46:51.152
En ik neem aan dat er dus een soort onderhandelingsmanual, uh, in PDF toegevoegd is door OpenAI en dat is dan de negotiator. Nou, dat is één voorbeeld.

280
00:46:52.112 --> 00:47:02.062
En je kan die assistenten dus aanroepen om bepaalde doelen te bereiken. Niet alleen bestaande, uh, GPT's, uh, die door OpenAI gemaakt zijn, maar je kan ook je eigen GPT maken.

281
00:47:02.092 --> 00:47:12.232
Dan kun je zeggen: deze bestanden moet hij gebruiken. Uh, hij moet, uh, het web op gaan, uh, voor bij momenten dat hij dingen niet weet. En hij mag het taalmodel voor de rest wel of niet gebruiken.

282
00:47:12.912 --> 00:47:22.632
Uhm, of dat je bijvoorbeeld alleen maar op zo'n PDF zich moet baseren. Uh, en het idee is dan ook nog in de toekomst dat er een soort van app store gaat zijn voor dat soort GPT's.

283
00:47:22.692 --> 00:47:32.472
Dus dat stel jij hebt een GPT ontwikkeld en die doet het, die doet het heel goed voor je, dan kun je die in die app store zetten en mensen gaan dan betalen voor het gebruik van jouw GPT.

284
00:47:32.572 --> 00:47:45.411
Eigenlijk betalen ze dan dus voor de dataset die jij hebt aangeleverd daarvoor. En kan dan nu die groep, uh, uhm, advocaten of wat waren het waar we het de vorige aflevering over hadden? Ja, ja, advocaten, ja.

285
00:47:45.452 --> 00:48:04.852
Ja, dus die groep advocaten die zitten met elkaar, uh, koffie of een biertje of een whatever te drinken ergens 's avonds, want die kennen elkaar nog van de studie en die zeggen, hebben allemaal inmiddels allemaal plekken overal in heel Nederland op niveau en die zeggen: dan zullen wij onze persoonlijke notities van werk en alles wat wij weten, want we wilden eigenlijk al heel lang een boek schrijven, maar dat is nooit gelukt, hè.

286
00:48:05.212 --> 00:48:14.092
Ja. Die gaan het dan allemaal samenvoegen in een zip en dan WeTransferen ze die naar iemand die savvy genoeg is. Die maakt er dan een GPT van en die gaan ze dan verkopen. Ja.

287
00:48:14.592 --> 00:48:19.012
Precies waar wij het de vorige keer eigenlijk al een beetje over hadden. Precies waar we het de vorige keer over hebben, heeft OpenAI gelanceerd nu.

288
00:48:19.092 --> 00:48:22.212
Dat is wel, uh, wij, wij hadden het niet in de context van ChatGPT bedacht.

289
00:48:22.232 --> 00:48:29.432
Wij dachten dit meer als een soort van: je gebruikt de API, je gaat dit maken en het wordt een soort front-end op het web en dan is het een eigen dashboard.

290
00:48:29.552 --> 00:48:40.672
En waarschijnlijk, laten we wel wezen, voor de echt waardevolle dingen ga, zal dat zo blijven. Ik geloof niet dat dat in ChatGPT gaat zitten, maar goed, weet ik veel. Uhm, wie we, wie weet wel.

291
00:48:40.732 --> 00:48:49.912
Het zijn de kleinere dingen. Ik zat, ik zat bijvoorbeeld een tool waarmee je kleurplaten kan maken. Dan zeg ik, ik wil een kleurplaat van, weet ik veel, van Amsterdam had ik gedaan.

292
00:48:50.072 --> 00:48:58.332
Amsterdam in de zon en dan maakt dat ding een kleurplaat van Amsterdam in de zon. Nou, dat soort dingetjes, uh, dat, dat zit dan op het niveau van dat het gratis is.

293
00:48:58.872 --> 00:49:08.192
Maar, uh, wat ik ook heb gezien is bijvoorbeeld wat ik zelf heb gemaakt was een, een tooltje die, de Commissariaat van de Media heeft een, uh, media monitor uitgebracht.

294
00:49:08.222 --> 00:49:18.732
Dat zijn a-allemaal feiten en cijfers over mediagebruik in Nederland. Van hoe jongeren TikTok gebruiken tot hoeveel, uh, hoe, w-w-wie, wie de eigenaren zijn van alle radiozenders en wat daarin is veranderd.

295
00:49:19.412 --> 00:49:28.212
Dat is een heel lang rapport. Die, die voeg ik dan toe in een, in een GPT die eigenlijk een soort van media expert is over Nederland. En, uh, die stel ik dan vragen.

296
00:49:28.252 --> 00:49:36.312
Nou, dat lijkt me nou typisch een voorbeeld waar je het Commissariaat- Dit wil je doen of dit heb je gedaan? Dit heb ik gedaan. Ja, en het werkt? Ja, ja, ja, dat werkt. Ja, het is echt heel vet.

297
00:49:36.332 --> 00:49:48.772
Dan kun je dus vragen, uh, nou, uh, hoeveel luisteren 65-plussers eigenlijk naar de radio? En dan haalt hij dat uit een tabel in die PDF. En dan schrijft hij het in normale taal. Uh, en dan kun je dus doorvragen.

298
00:49:48.812 --> 00:49:58.700
En ik- Nou, dit is wel boeiend, hè, want sorry dat ik je onderbreek, maar ik zit meteen te denken: is hetWant ik weet inmiddels, dat was ik me helemaal niet zo goed bewust van, maar ik kreeg er laatst vragen over, toen ben ik het een beetje gaan uitzoeken.

299
00:49:59.100 --> 00:50:08.500
Je kunt als ontwikkelaar, uh, een taalmodel finetunen bij OpenAI door te laten zien: dit is eigenlijk het antwoord wat ik zou willen hebben en dat dan tienduizend keer te laten zien.

300
00:50:08.520 --> 00:50:20.860
En dan kan je dus zonder te trainen eigenlijk, ja, een bee-ben je aan het finetunen. Dat kon, dat kon al. Je kan ook zeggen: ik wil mijn eigen GPT trainen op de volledige dataset van mijn bedrijf of organisatie.

301
00:50:20.920 --> 00:50:26.780
Dan word je daarmee geholpen en dan, uh, krijg je iemand toegewezen bij OpenAI en dan gaan jullie samen een nieuwe trainen.

302
00:50:27.160 --> 00:50:35.920
En dat kost ook een hoop centen, dus dan moet je wel even een serieuze zak geld meenemen en ook gewoon een partij zijn die daar echt, uh, ja, eigenlijk een eigen GPT trainen.

303
00:50:36.150 --> 00:50:45.240
Maar wat jij nu eigenlijk, het klinkt voor mij veel meer als, wat jij beschrijft, een soort Lego no code versie van een mix van finetunen. Want je bent niet echt een model aan het trainen.

304
00:50:45.280 --> 00:50:50.980
Je gebruikt e-eigenlijk de kracht van GPT-4 of Turbo. Geen idee wat ze daar achter hebben draaien.

305
00:50:51.640 --> 00:51:06.110
Plus het feit dat dat taalmodel, die niet opnieuw getraind wordt voor zover ik weet, voor jouw eigen GPT, toegang heeft tot een dataset van documenten die jij bijlevert als een soort van: hier heb je een sto-, uh, een tasje vol met leuke boeken die, of PDF's of noem maar op.

306
00:51:06.700 --> 00:51:21.180
En dan de combinatie van jouw prompt die jij hebt geëngineerd eigenlijk, system card denk ik dan, plus de cache aan data die jij meelevert die samen vormen een nieuwe GPT. Dat is dus eigenlijk wel wat anders dan een

307
00:51:22.360 --> 00:51:23.820
op maat getraind model.

308
00:51:24.300 --> 00:51:43.040
Want als je moet gaan trainen kost het natuurlijk geld en moeilijk, moeilijk, zo'n GP, di-die GPT, uhm, zo'n op, ja, hoe zeg je dat, zo'n opzichzelfstaande GPT is eigenlijk een mix van een bestaand taalmodel, plus een goede system card, plus een verzameling aan documenten, hè, samengevoegd tot een geheel en die kan zo, woep, de store in.

309
00:51:44.520 --> 00:51:51.480
Cool! En, en dan kan je ook, hoeveel kan je zien van wat iemand heeft gedaan? Jouw, jouw system card blijft geheim. Die documenten kan ik niet inzien.

310
00:51:52.020 --> 00:51:57.660
Ja, ik zag wel mensen prompt hijacken en dat die keurig, uh, [gniffelt] de Excel-file die erachter zit gewoon observeert.

311
00:51:58.200 --> 00:52:04.160
Maar goed, dus volgens mij, ja, ik weet niet hoe goed je dit nou uiteindelijk echt geheim kan houden wat je aanlevert aan zo'n GPT.

312
00:52:04.190 --> 00:52:15.120
Maar als jij dan nu een boek pakt van, uh, Harari en die gooi je erin en je moet hem geen Harari GPT noemen, want dan geef je het al heel snel weg. Maar die noem je dan gewoon, uh, Future Vision GPT.

313
00:52:15.540 --> 00:52:26.060
Gaat dan OpenAI zeggen: nee, nee, nee, nee, dat boek is, heeft copyright. Hoe werkt dit? Ja, goeie vraag. Ja, ik heb gewoon, ik heb boeken er op gezet en dat werkt gewoon. [lacht] Goeie vraag. Je bent nog niet gebeld?

314
00:52:26.560 --> 00:52:33.960
Ik ben nog niet gebeld. Nog geen mail gehad? Nee, het zou natuurlijk kunnen dat die GPT gewoon uit de lucht gaat, uh, omdat ik copyright materiaal aan het uploaden ben.

315
00:52:34.340 --> 00:52:41.460
Uh, en je kan ook gelijk je GPT delen met, uh, iedereen en daarmee, ja, ik vraag me wel af wat de copyright implicatie daarvan is.

316
00:52:41.720 --> 00:52:52.339
Als jij een GPT maakt gebaseerd op copyright, het werk van een ander, ben jij daarmee in overtreding? Nou ja, ik zag wel dat ze, in de aankondiging zit ook een copyright shield.

317
00:52:52.480 --> 00:52:55.360
Dat was even onderaan de notities nog, zag ik op hun blog.

318
00:52:55.400 --> 00:53:05.420
En een copyright shield houdt in dat op het moment dat jij, uh, wordt aangeklaagd door copyright in, voor copyright infringement, dat OpenAI garant staat voor de juridische kosten.

319
00:53:05.480 --> 00:53:13.980
Ik, di-dit is aangekondigd ook, maar ik, gaat dat dan ook hier over? Want dat voelt wel heel vreemd als jij gewoon. Klinkt als meer iets voor enterprise, uh. Toch?

320
00:53:14.020 --> 00:53:20.880
Als jij, precies, als jij alle boeken van O'Reilly erin gooit over Python en dan Python GPT gaat maken. Volgens mij klopt daar helemaal geen snars van.

321
00:53:20.920 --> 00:53:25.760
O'Reilly moet die zelf maken en dan verkopen dan, denk ik, in het OpenAI-beeld, toch? Ja, precies.

322
00:53:25.800 --> 00:53:34.460
En dit is volgens mij gewoon wel een, uh, ik ben wel benieuwd in hoeverre dit nou echt een businessmodel kan worden, want de App Store impliceert dat het een store is, dus dat je ook geld gaat kunnen verdienen.

323
00:53:34.520 --> 00:53:44.980
En waar verdien je dan geld mee? Het uploaden van die bestandjes. Het zal niet in het prompt zitten, want, ja, ik weet niet. Dat, dat, dat voelt toch een beetje als een soort van meer een instructie op hoofdlijnen.

324
00:53:45.100 --> 00:53:51.340
Uh, de echt, de echte toegevoegde waarde zit hem in, denk ik, in het, in de bestanden die je gaat aanleveren.

325
00:53:51.780 --> 00:53:59.240
Dus dat betekent dat als jij, uh, nu is het misschien, stel je schrijft nu, stel ik heb een, uh, uh, ik werk nu, ik heb ook een uitgeverij.

326
00:53:59.320 --> 00:54:06.120
Stel er komt nu iemand bij me die zegt: ik wil een boek schrijven over salarisonderhandelen. Ik wil gewoon, uh, ik wil een, een boek schrijven hoe je dat doet.

327
00:54:06.960 --> 00:54:12.540
Nou, dat is wel een onderwerp waarvan ik me dan echt afvraag: is een boek eigenlijk een best, de beste vorm daarvoor om dat te doen?

328
00:54:12.620 --> 00:54:25.640
Moet je niet alles wat je normaal gesproken in een boek zou opschrijven, moet je dat niet, ja, ik weet niet in hoeverre je dat nou echt moet herschrijven, dat het beter werkt voor, uh, als, als re, voor de, voor de retrieval van, uh, van, uh, van GPT.

329
00:54:26.020 --> 00:54:35.420
Maar misschien is het zo dat als jij dezelfde feiten, uhm, die je in een boek schrijft of ideeën in een boek schrijft, uh, daar een GPT van maakt.

330
00:54:35.540 --> 00:54:45.960
Nou, misschien is dat serieus wel een veel praktischere manier voor, voor consumenten om die informatie tot zich te nemen dan, uh, een boek lezen waar je dan uiteindelijk wat mee moet.

331
00:54:46.400 --> 00:54:53.940
Maar zou je die dan ook misschien gaan uitgeven? Ja. Is dat, ja toch, dat jij GPT's gaat uitgeven? Ja, in plaats van een boek zou ik zeggen. Hmm.

332
00:54:54.120 --> 00:55:04.340
Ja, dus ik denk dat er verschillende, verschillende, uhm, boeken zijn die gewoon beter zijn als boek. Uh, heel veel boeken zijn beter als boek, maar er zijn ook heel veel boeken eigenlijk denk ik beter als GPT.

333
00:55:04.420 --> 00:55:06.960
Namelijk iets wa, iets, dingen die actionable zijn.

334
00:55:07.720 --> 00:55:22.780
En dat, je hebt een hele reeks aan mensen die, uh, wer, van werkboeken of, uh, zelfhelpboeken of boeken die je helpen om iets te bereiken of boeken waarvan je wil we, of, nou, uh, en er is een combinatie natuurlijk mogelijk waarbij je achteraf wil,

335
00:55:23.700 --> 00:55:34.200
in het, in het boek wil kunnen blijven, in de geest van het boek wil blijven doorwerken in je leven. Dus ik, ik moet bijvoorbeeld denken aan boeken die, uh, je Principles van Ray Dalio. Ja.

336
00:55:34.660 --> 00:55:46.460
Wat een soort van, uh, ja, het is een soort, één groot mental model, uh, met een, van dit zijn soort van basisprincipes die hij gebruikt in het leven, uh, uh, op, op een heel abstract niveau.

337
00:55:47.140 --> 00:55:52.470
Nou, d-dat, dat, uh, ik zou dat heel graag in mijn, in, in mijn leven verder toepassen.

338
00:55:52.540 --> 00:56:00.900
En dan heb ik eerst het boek gelezen en daarna gaat dat ding me de hele tijd helpen herinneren aan hoe ik dat ook weer kan toepassen. Nou. Ik vind het wel boeiend, want je zou ku-kunnen zeggen: ik praat met een boek, hè.

339
00:56:00.960 --> 00:56:09.428
Je hebt nu ook allemaalServices die nu direct in de problemen zijn gekomen. Talk to a pdf punt com volgens mij is dat bijvoorbeeld. Dan kan je met pdf'jes praten. Ja,

340
00:56:10.368 --> 00:56:17.968
ik denk qua metafoor, qua interface dat dat wel klopt of zo. Het is net als met mappen op een computer. We zitten nou eenmaal met die soort

341
00:56:19.148 --> 00:56:31.208
oude concepten uit de uit de fysieke wereld die we dan in computers en software gaan stoppen. Dus het idee van moet je voorstellen dat je met een boek kan praten is volgens mij voor heel veel mensen heel erg intuïtief.

342
00:56:31.368 --> 00:56:43.688
Ik bedoel, het is bizar om als ik het zo zeg, maar dat is als ik tegen mijn moeder zou zeggen je kan met je favoriete boek praten. O, interessant. Is dat wat AI kan of zo? Ik denk wel dat. Waarom is het dan niet ook?

343
00:56:44.648 --> 00:56:51.668
Ik wil eigenlijk gewoon met de auteur praten, want ik zit nu ook te denken. Dat denk ik ook. Dat is de logische abstractieniveau. Ja, nou ja, het kan allebei, hè.

344
00:56:51.708 --> 00:56:59.008
Misschien zeg ik wel binnen de context van dat specifieke boek blijven, want het zijn principles waar ik het over hebben en niet de rest van wat Ray Dalio vindt van andere onderwerpen.

345
00:56:59.048 --> 00:57:07.728
Dus misschien kunnen allebei die metaforen werken voor een scope zeg maar. Ik denk alleen wel dat maakt het voor mij meteen interessant.

346
00:57:07.768 --> 00:57:15.328
Want we hebben het natuurlijk eerder gehad over Meta die nu allerlei personages heeft gecreëerd, waaronder Snoop Dogg die Dungeon Master is.

347
00:57:15.628 --> 00:57:26.228
Ik ga ervan uit dat Snoop Dogg zijn likeness, stem en gezicht heeft verkocht en et cetera aan Meta om dan no way dat hij dat gratis toestaat, dat geloof ik niet. Het idee wat ik.

348
00:57:26.508 --> 00:57:41.828
Wat ik wel interessant vind is het idee ga je dan jezelf als auteur ook paywallen eigenlijk? Dus ga je dan jezelf verkopen met een soort likeness? Staan in die store straks ook een soort van ja, Alexander PT.

349
00:57:42.068 --> 00:57:51.328
Even een grapje, maar dat dat ik even met jou kan kletsen hoe jij over dingen denkt omdat je daar veel documenten van jezelf in geladen hebt die. Het is allemaal black box, want dat is het is een letterlijke paywall.

350
00:57:51.368 --> 00:58:00.908
Ik kan niet achter de muur kijken, ik mag achter de muur met geld en daarnaast zit alsnog een zwarte doos waar ik mee praat, want daar heb jij al je documenten in verstopt die ik daar ga proberen uit te halen.

351
00:58:00.928 --> 00:58:11.468
Natuurlijk door sneaky prompt, maar als het goed is wordt dat allemaal dichtgehouden. Ja, ik ben wel benieuwd. Tegelijkertijd vind ik het ook boeiend hoor, want het is natuurlijk wel

352
00:58:12.528 --> 00:58:24.228
ironisch dat OpenAI dan jarenlang het hele internet leeg scrypt, inclusief boeken heb ik begrepen. Om vervolgens dit aan te bieden. Maar goed, dat is even. Snap je? Ja, maar misschien ik kijk nu.

353
00:58:24.288 --> 00:58:37.328
Nu ga je het doen met boeken omdat dat nou eenmaal de de vorm is die we nu gewend zijn aan een soort van informatieoverdracht van grotere ideeën. Dat is dan nu de vorm, het boek. Maar ja,

354
00:58:38.708 --> 00:58:48.968
als jij, zoals in The Matrix iets kan inpluggen zoals in The Matrix, je kan leren hoe je moet vechtsporten vechtsport moet doen door een kabel in je achterhoofd te steken.

355
00:58:49.488 --> 00:59:02.388
Het is een beetje dat, maar dan met ideeën en het idee dat je een dat je dat je een boek of een ideeën landschap wat je heel erg sterk vindt kan pluggen in je dag. Van je e-mails tot je

356
00:59:03.628 --> 00:59:15.728
de manier waarop je om praktische tips vraagt tot de manier waarop je je zielenroerselen deelt met je journaling assistent of wat dan ook. Dat dat, dat er dat dit altijd ingeplugd is. Want je kan. Ja,

357
00:59:17.388 --> 00:59:24.947
ik weet niet, ik zie dat wel voor me. Ik denk dat. Ik moet meteen denken jouw Matrix vergelijking. Echt fantastisch, omdat ik meteen dacht er zit zo'n.

358
00:59:25.468 --> 00:59:35.108
Sorry voor de fans dat ik deze quote butcher, maar volgens mij zegt Trinity op een gegeven moment Tank give me the flight program of Tank give me de. Dat is het.

359
00:59:35.168 --> 00:59:43.428
Dan willen ze even het programma hebben om die helikopter te kunnen. Het is even geleden dat ik deze film heb gezien. Ja, ja. Ja. Knipperende knipperende ogen met haar ogen dicht.

360
00:59:43.448 --> 00:59:56.108
En dan heeft ze ineens het programma gedownload. Nergens in die film zegt Tank: Dat is dan € 4 alsjeblieft. Dus ik zit wel even, want ik bedoel tegelijkertijd dacht ik meteen als.

361
00:59:56.328 --> 01:00:03.248
Als ik een boek wil lezen, dan kan ik een e-book kopen op bijvoorbeeld Bol.com. Daar is het wel een transactie.

362
01:00:03.788 --> 01:00:16.708
Dus is het misschien zo dat als jij zegt ja, je betaalt vijf, zes, zeven, € 77 voor een boek, dan is het misschien ook niet gek dat je zes, € 7 betaalt om toegang te krijgen tot een custom GPT. Dus ik

363
01:00:17.688 --> 01:00:27.008
Ik vind het interessant. Ik zie dit helemaal voor me hoor, want ik heb dit bijvoorbeeld. Ik betaal voor een service die heet Audio Pen. Die maakt van een soort van rambling stream of consciousness geluid.

364
01:00:27.448 --> 01:00:35.468
Dus ik ga gewoon brabbelen. In die app maakt hij dan gestructureerde tekst en het is echt een wrapper app. Tot, tot, tot de max.

365
01:00:35.508 --> 01:00:46.888
Want het is gewoon Whisper in combinatie met een prompt en dat is een prompt van twintig regels, want ik heb hem wel eens gereverse engineered en daar betaal ik dan € 90 voor omdat ik dat gewoon een handige app vind.

366
01:00:47.428 --> 01:00:56.608
Nou ik dan. Dan denk ik wel ja, want mijn punt is niet wat jammer. Nou, ik denk dat. Ik denk dat ik het wel jammer vind dat er dan een transactie moet plaatsvinden.

367
01:00:56.638 --> 01:01:07.208
Maar ik ben ook niet zo naïef dat ik niet begrijp dat er uiteindelijk iemand stopt daar moeite in. We leven nou eenmaal in een economie waarin je. En gaat die data maken voor die chatbot. Ja, maar dan denk ik wel

368
01:01:08.628 --> 01:01:20.188
nu is het model. Kijk, op het moment dat ik een e-book koop, dan is het. Nou ja, dan is het al niet echt van mij, want er zit dan weer een heel DRM scheme op. Daar heb ik al moeite mee. Ik wil het hebben.

369
01:01:20.768 --> 01:01:28.708
Misschien ben ik een ouwe lul. Sorry hoor, maar ik wil het hebben. Dan zeg je: je hebt Spotify toch ook niet? Dat klopt. Blijkbaar maak ik daar een soort cognitief dissonante uitzondering voor.

370
01:01:29.028 --> 01:01:37.988
Ik hoef die mp3's niet te hebben, maar bij boeken vind ik het vaak wel fijn om ze te hebben. Het is nu zo bij Bol en alle andere grote e-book providers.

371
01:01:38.028 --> 01:01:45.508
Daar zit dan een DRM scheme op waardoor je hem niet zomaar kunt kopiëren en noem maar op. Dus hij is eigenlijk niet echt van jou. En het is ook wel eens gebeurd in het verleden.

372
01:01:45.528 --> 01:01:54.088
Best wel vaak trouwens, dat dan die DRM server down gaat of het certificaat wordt teruggetrokken. Dan kan je een bestand op je eigen computer ineens niet meer openen. Dat is voor mij echt een nachtmerrie.

373
01:01:54.148 --> 01:02:01.328
Dat is gewoon heel freaky. Dat je een stuk data hebt wat op een harde schijf staat en twee jaar later kan je dat precies datzelfde bestand ineens niet meer openen.

374
01:02:01.488 --> 01:02:13.048
Is gewoon freaky hier bij OpenAI.Je betaalt per token, je betaalt eigenlijk per query. En dan denk ik hoe gaat het dan straks werken als ik met jouw GPT praat?

375
01:02:13.128 --> 01:02:20.188
Ik gebruik even jou als voorbeeld omdat jij een hele gave GPT hebt gemaakt die heel veel mensen super waardevol vinden en jou ook zelf daarvoor willen compenseren.

376
01:02:20.228 --> 01:02:27.068
Want ze vinden het gewoon gaaf en ze hopen dat je eraan doorwerkt. En maak hem beter. Alexander hier. Take my money. Weet je wel. Ik bedoel niet cynisch, dat kan echt.

377
01:02:27.568 --> 01:02:38.907
Maar dat jij dan of niet jij eigenlijk, maar dat OpenAI jou de mogelijkheid biedt te zeggen nou, mensen gaan niet dat ding kopen. Punt één nemen ze een abonnement op dat ding, dus jij gaat maandelijks inkomsten krijgen.

378
01:02:38.988 --> 01:02:47.228
Maar je kan ook pay-as-you-go doen en dan is het hoe vaak je met Alexanders bot praat in de vorm van tokens, oftewel het letterlijke businessmodel van OpenAI nu.

379
01:02:47.688 --> 01:02:58.788
En dan gaan we toch wel ver weg van: ik koop een boek fysiek in de winkel voor € 10 en die is van mij naar ik betaal voor de privilege. Zeker. Ja, ik denk dat in heel veel.

380
01:02:59.028 --> 01:03:06.368
Weet je, de boeken is de eerste metafoor omdat we dat nou eenmaal gebruiken. Omdat we dat nou eenmaal kennen. We snappen dat. Dat is een kaftje eromheen, het is af.

381
01:03:06.408 --> 01:03:10.528
Er komen maar eens in de zoveel tijd nieuwe versies en die zijn dan heel marginaal, want anders is het een nieuw boek.

382
01:03:10.568 --> 01:03:18.268
We weten wat, wat de perceptie van kosten is en wat inmiddels de, ja, wat bezit betekent als het gaat over een e-book. Dat dat is een.

383
01:03:18.608 --> 01:03:32.708
Maar, maar die metafoor breekt al heel snel af op het moment dat je gaat bedenken wat betekent dit voor als, als het een ideeënlandschap is wat zich update over de tijd, waar allerlei dingen aan toegevoegd worden, waar misschien het model beter gaat worden omdat het gebruikt wordt.

384
01:03:32.808 --> 01:03:42.808
De metafoor houdt heel snel op en dan kun je gaan klagen over: ik wil gewoon een boek met een kaftje eromheen en die is van mij. Ik wil, ik wil dat hij van mij blijft, maar het wordt een heel ander product.

385
01:03:43.108 --> 01:03:53.548
Dus ik weet het, maar mijn punt is meer dat op het moment dat ik 's ochtends twee pagina's heb gelezen in een boek van jou en ik dan 's middags op mijn bank kijk en zie dat er € 0,04 is afgeschreven, want ik heb twee pagina's gelezen.

386
01:03:53.658 --> 01:04:03.728
Ja, sorry. Klinkt als de toekomst. Voor een uitgever klinkt dit uitstekend, [lacht] maar hier vinden wij elkaar dan toch even niet. Alexander. Ja. Maar tegelijkertijd hoor ik je.

387
01:04:04.328 --> 01:04:16.268
We betalen wel voor bepaalde diensten, precies op deze manier. Nu al. Dus er zijn al bestaande businessmodellen. Maar ja, het is, [lacht] ik weet niet, ik word er gewoon een beetje, ja, kriebelig van. Ik snap het.

388
01:04:16.508 --> 01:04:26.128
En, en verder OpenAI legt als het ware de groundwork, de, de, de basis, het fundament om, om daadwerkelijk taalmodellen te gaan gebruiken in allerlei andere apps.

389
01:04:26.548 --> 01:04:37.028
Dus ze hebben een API gelanceerd van dat GPT4 Turbo model waardoor iedereen assistenten in zijn eigen apps kan gaan bouwen. Nou, dat is wezenlijk, maar dat is toch nog chat.

390
01:04:37.608 --> 01:04:43.567
En aangezien ze zo bezig zijn met, uh, antwoorden structureren als Jason.

391
01:04:44.228 --> 01:04:57.488
Wat je, wat je voelt aankomen is dat dit, dit, dit is de tussenstap, het fundament voordat, uh, we daadwerkelijk, uh, die, die, die, dat taalmodel van OpenAI dingen voor je kan gaan doen in apps.

392
01:04:58.008 --> 01:05:05.368
Dus dat, dat het daadwerkelijk tickets voor een concert koopt voor je. Ja, dit heb ik helemaal niet met jou gedeeld trouwens.

393
01:05:05.388 --> 01:05:14.288
Wat goed dat je dit nog zegt, want ik zat te kijken naar een, dat heet volgens mij, hmm, maakt even niet uit hoe het heet, ik kan het gewoon beschrijven. Dat is een project wat ik vond op GitHub.

394
01:05:14.628 --> 01:05:26.548
Dat is iemand die heeft GPT4 Vision, uh, GPT4V, die inmiddels al een tijdje uit is in AI-land, oftewel weken. [lacht] Nee, maar goed. Boring. Boring. Superlang geleden [lacht].

395
01:05:26.648 --> 01:05:35.148
Nee, maar die is heel tof, want dit is eigenlijk een derde versie van een, van een concept wat al langer geprobeerd wordt door heel veel ontwikkelaars is dat je het voorbeeld.

396
01:05:35.158 --> 01:05:45.728
Ik ga het gewoon even beschrijven wat je ziet. Iemand zegt tegen een, in een terminal window, dus het is nog allemaal super rauw, maar die zegt dan: hoi, ik wil graag een video kijken van Rick Astley.

397
01:05:46.468 --> 01:05:56.888
Rickroll me even op YouTube en dat, en dan, dat ding opent dan woop, een browser en dan zie je zo hop en dan gaat hij kijken waar hij op kan klikken en dan hop klikt hij op, gaat hij naar het adresbalk, typt hij google.com in.

398
01:05:56.948 --> 01:06:05.508
Dit, dit, dit, het taalmodel allemaal, heel wous, en die gaat dan zoeken op YouTube naar die Rick Astley video, scrollen door de resultaten, klikt die video aan en die gaat hem kijken.

399
01:06:05.828 --> 01:06:17.368
En dit is eigenlijk wat wij hebben besproken op mobiel OS-niveau is dat je gewoon op zoek gaat naar touch targets. Dit ding hoekt trouwens in op de API van Assistive Touch heet het volgens mij.

400
01:06:17.728 --> 01:06:31.968
Dus dat je wat Apple al heeft gedaan en blijkbaar Google ook in Chrome, is dat er voor mensen die dus werken met een, uh, speciale joystick of een ander soort apparaat om, omdat ze, uh, moeite hebben om hun armen te bewegen of misschien zelfs geen handen hebben.

401
01:06:32.288 --> 01:06:42.968
Die kunnen dan met allerlei hardware toch die computer besturen en daarvoor moet je natuurlijk al API's maken die bijvoorbeeld alle plekken op het scherm waarop je zou kunnen klikken even een geel bolletje geven.

402
01:06:43.008 --> 01:06:45.367
Dit heeft Apple jaren geleden al een keer gedemood.

403
01:06:46.088 --> 01:06:59.748
Google heeft het ook in Chrome zitten en deze GPT4 Vision bot haakt helemaal in op dat deel van wat al in browsers en operating systems zit om eigenlijk te hijacken en lekker rond te gaan klikken.

404
01:06:59.848 --> 01:07:04.888
Uh, ja, brute force, hè, wat we toen al een beetje lachend bespraken om gewoon die computer te kunnen besturen.

405
01:07:05.168 --> 01:07:14.048
Nou, wat je dan nog, en ik herhaal het nog even een keer, misschien hebben mensen die aflevering niet geluisterd, maar wat je dan nog even moet doen is een tweede scherm maken die wij niet zien als gebruiker.

406
01:07:14.088 --> 01:07:30.408
Dat is gewoon een tweede onzichtbaar scherm op die computer, zodat die chatbot op de achtergrond, terwijl jij je computer gewoon nog kan gebruiken, op diezelfde computer even lekker een paar apps kan rommelen voor jou en dan kan je het, ook al is het ontzettend inefficiënt en lelijk hoe het werkt, ja, kan je gewoon hele gave dingen gaan doen.

407
01:07:30.508 --> 01:07:36.768
Je geeft eigenlijk, uh, ja, je assistent controle over jouw computer, terwijl jij er ook nog op kan werken. En dat kan ook je smartphone zijn.

408
01:07:37.348 --> 01:07:45.688
Bestel even een, een pizzaatje voor me in de Domino's app en ik hoor het zo wel. Dat soort dingen. En dat, dat moet toch zijn wat we volgend jaar gaan zien op dezezelfde keynote?

409
01:07:45.868 --> 01:07:53.608
Ja, en ik, ja, en misschien wel, uhm, ja, ik, ik vind jou, er zit een soort Apple cynisme bij jou dat je zegt: en dan over twee jaar bij Apple, toch? Die vind ik wel leuk, dat grapje.

410
01:07:54.308 --> 01:08:05.148
En misschien [lacht] over een jaar bij Apple. Apple heeft behalve Turbo Siri of sorry Super Siri, want Turbo Siri zou een soort slechtere, snellere versie van Siri zijn. Die wil je helemaal niet. Die wil je echt niet.

411
01:08:05.348 --> 01:08:16.300
Nee, die moet je niet willen.Ja, Apple en, en Google hebben en Microsoft. Die drie groten hebben wel echt alles nu in handen om deze assistent op dat level mogelijk te gaan maken.

412
01:08:16.680 --> 01:08:26.900
Wat ik nog wil zeggen om af te sluiten ik denk dat we wel alweer veel verteld hebben vandaag. Wat me meevalt is dat Whisper en ik gebruik Whisper zelf.

413
01:08:27.300 --> 01:08:34.840
Ehm, eigenlijk een van de weinige dingen waar ik van weet, van concrete GitHub projecten die door OpenAI open op internet zijn gezet.

414
01:08:35.580 --> 01:08:42.540
Er was wat zenuwen bij de community die Whisper graag inzet voor het een en ander dat er nooit meer een Whisper drie zou komen.

415
01:08:43.000 --> 01:08:53.000
En als er een wish, want we waren bij Whisper drie, uh, twee en als er een Whisper drie zou komen, dat die natuurlijk eerst in de API van OpenAI zou komen en dan in een soort shitty afgeslankte versie op GitHub.

416
01:08:53.440 --> 01:09:01.260
Wat is er gebeurd? Iets wat downla-, downloadbaar is en waar je, waar je zelf mee aan de slag kan zonder. Zeg maar. Ja. En we Whisper de audio naar tekst.

417
01:09:01.720 --> 01:09:06.300
En er zit trouwens een heel klein GPT'tje in die dat waarom, die best wel goed is ook, dus dat is wel heel grappig.

418
01:09:07.000 --> 01:09:16.500
Whisper drie is aangekondigd, is nog niet beschikbaar bij OpenAI zelf in de API, maar staat al wel op GitHub. Vind ik een leuke verrassing.

419
01:09:16.540 --> 01:09:26.340
Het is te triest dat ik enthousiast moet zijn over een bedrijf dat zich OpenAI noemt. Dat een van de vijftig projecten die ze hebben ook nog geüpdatet wordt en op internet gezet wordt. Come on!

420
01:09:26.780 --> 01:09:33.300
Maar toch ben ik wel, uh, blij [lacht] als gebruiker van Whisper. Het is gewoon heel vet dat het nieuwste model gewoon een bestand.

421
01:09:33.340 --> 01:09:42.540
Uiteindelijk is het gewoon een heel groot bestand wat je download en dan gooi je hem erin en dan is in één keer je speech to text beter. Ja, ik las mijn favoriete AI schrijver Dan Shipper schrijven.

422
01:09:42.550 --> 01:09:53.240
Het is toch een grappig ding waar OpenAI in beland is. Namelijk je hebt een developer day en heel veel van de toekomst denk ik die Sam Altman voor zich ziet, ziet, uh, zit hem aan het leveren van diensten aan developers.

423
01:09:53.840 --> 01:10:01.940
Toen zijn ze eigenlijk een soort van, s-, al struikelend hebben ze de populairste app ooit gemaakt, namelijk ChatGPT.

424
01:10:02.200 --> 01:10:10.740
Wat niet de bedoeling was en waarvan ze ook geen-- wij niet hadden verwacht dat dat zo snel zo'n groot onderdeel van hun business zou worden.

425
01:10:11.300 --> 01:10:20.220
En nu kunnen ze eigenlijk niet anders dan ook op ChatGPT focussen waarmee ze een soort van rare, ja, een soort van concurrentie ding hebben gemaakt met zowel hun eigen apps.

426
01:10:20.560 --> 01:10:29.980
Die dus de hele tijd anderen aan het Sherlocken zijn en, uh, de, de, de developer kant die, die je ook blij moet maken met, uhm, allerlei, uh, nieuwe API's.

427
01:10:30.180 --> 01:10:39.600
Toch een beetje Bosch, want Bosch, Bosch maakt echt ruitenwissers, onderdelen van graafmachines. Maar Bosch heeft ook gewoon consumentenproducten.

428
01:10:39.660 --> 01:10:51.060
Gewoon een, een, een boormachine bij de Karwei dus in dat opzicht en, en ik denk niet ik, ik ben helemaal met je eens. OpenAI had denk ik gedacht dat iemand anders ChatGPT zou bouwen op GPT. Ja.

429
01:10:51.100 --> 01:11:00.960
En uiteindelijk is hun eigen demootje van: ja, dit is bijvoorbeeld iets wat je zou kunnen doen. Ja. Totaal uit de klauwen gelopen. Ja. Dus ik, ik ben het met je eens dat de turn of events is heel bijzonder.

430
01:11:00.980 --> 01:11:11.240
Maar ik denk wel, uh, net als de Samsungs van deze wereld, die volgens mij ook van ziekenhuizen tot graafmachines tot smartphones maken, het op zich niet gek is om op meerdere lagen te opereren.

431
01:11:11.280 --> 01:11:16.639
Business to business, business to consumer, business to developer. Fair enough. Dingen. Fair enough. Maar niet de bedoeling.

432
01:11:17.080 --> 01:11:25.460
Nee, maar in dit geval, weet je, ze, ze, ze hebben nodig dat ze de, de, de, de goeie, dat ze goeie sier kunnen blijven maken in Silicon Valley.

433
01:11:25.520 --> 01:11:37.960
Om niet alleen hun macht op het gebied van, uh, van, uh, developer tools API's te vergroten, maar denk ik ook om personeel aan te trekken. En OpenAI is denk ik het gaafste bedrijf om momenteel te werken.

434
01:11:38.100 --> 01:11:41.500
Ik denk dat het wel, dat, ik denk niet dat ik het overdrijf als ik dat zeg.

435
01:11:42.200 --> 01:11:52.510
En, uh, ik kan me dus voorstellen dat het blijven release, ja, ja, af en toe heel ge, ge, ge, ge, gefocust releasen van dingen naar specifiek naar de developer community.

436
01:11:52.620 --> 01:12:04.500
Dat dat gewoon hen helpt op de lange termijn om goede mensen te krijgen en niet een kwade sier, uh, te maken. Ik kan me dus voorstellen dat dat de reden is waarom ze nog steeds Whisper open source maken.

437
01:12:04.520 --> 01:12:13.600
Want verder, wat hebben ze daar nou voor voordeel aan? Uh, oh ja, dat is precies dat, dat, dat ik dan als ontwikkelaar toch ook nog wel een beetje enthousiast. Het is gewoon een bot.

438
01:12:13.640 --> 01:12:21.040
Een soort peperkoek die naar je geflikkerd wordt. Zo van: hier neem een hapje. [lacht] Ja, dit, dit is gewoon te pijnlijk voor mij om te accepteren dat je dit nu zegt.

439
01:12:21.840 --> 01:12:30.839
[lacht] Ik wil ook gewoon nu, ik ga gewoon ook afsluiten nu. Goed, we zouden hier nog, we zouden alleen al over deze keynote nog uren kunnen doorpraten, maar die tijd is op. We zijn er volgende week weer.

440
01:12:31.500 --> 01:12:37.320
Ja, tot volgende week. Dag. Dag. [afsluitend muziekje]
