Desk research met CoPilot
Waarom desk research in Executive Search vaak onnodig veel tijd kost
Je kent het patroon: een intake is gedaan, het team wil “een eerste longlist”, en ondertussen stromen er links binnen naar bedrijfswebsites, persartikelen, podcasts, KvK-profielen en LinkedIn-updates. Voor je het weet zit je met 25 tabbladen open, halve aantekeningen in Teams, en een gevoel dat je wél veel hebt gelezen maar nog niet strak kunt onderbouwen waarom iemand relevant is. In retained executive search is dat risicovol: je moet snel richting kunnen geven, maar elke aanname moet ook verdedigbaar zijn richting klant en kandidaten.
CoPilot kan desk research versnellen, maar vooral: het kan je research consistenter, traceerbaarder en beter “vertelbaar” maken. Niet door “de waarheid” te genereren, maar door jouw bevindingen te structureren, hiaten te markeren, en herhaalbare samenvattingen te maken die je later weer kunt gebruiken in interviews, updates en shortlist-rapportages.
In deze les leer je hoe je CoPilot inzet als research-assistent: van het omzetten van ruwe bronnen naar scherpe inzichten, tot het bewaken van bronkwaliteit, bias en aannames—precies de punten waar executive search op wordt afgerekend.
Wat CoPilot wél en niet is tijdens desk research
Desk research in executive search betekent: systematisch informatie verzamelen en interpreteren over markt, organisaties en leiders—met als doel een onderbouwde search-strategie en een geloofwaardige candidate story. Als je CoPilot inzet, is het belangrijk om een paar termen scherp te hebben, omdat die bepalen hoe betrouwbaar je output is.
Belangrijke begrippen
-
Brongebonden samenvatting: een samenvatting die expliciet verwijst naar de aangeleverde tekst/links/fragmenten. Dit is geschikt voor klantupdates en interne documentatie.
-
Hypothese vs. feit: een hypothese is een onderbouwde aanname (“waarschijnlijk ligt de groei in regio X”), een feit is verifieerbaar (“omzet steeg van… naar…” met bron). CoPilot helpt je juist door dit onderscheid expliciet te maken.
-
Claim-discipline: de gewoonte om elke belangrijke uitspraak te labelen als feit, interpretatie, of open vraag. Dit verlaagt reputatie- en compliance-risico.
-
Research brief: jouw kader (rolscope, must-haves, context van de klant). Zonder dit kader gaat CoPilot “netjes schrijven” maar niet scherp selecteren.
Onderliggende principes (waarom het werkt) CoPilot is sterk in patroonherkenning en structureren, maar zwakker zodra de input vaag is of wanneer je het model vraagt om informatie die niet in de bronnen zit. Daarom is de gouden regel: jij levert het kader en de bronnen, CoPilot levert structuur, vergelijking en taal. Zie CoPilot als een senior analist die snel kan schrijven en ordenen, maar die je wél moet controleren op bronvastheid en interpretaties.
Een nuttige analogie: desk research met CoPilot is als werken met een uitstekende notulist + redacteur. Hij kan van losse input een strak memo maken, maar als jij verkeerde input geeft of geen afbakening, krijg je een overtuigend verhaal dat alsnog niet klopt.
Van ruwe bronnen naar bruikbare inzichten: drie kernvaardigheden
1) Brongebonden samenvatten zonder “verzinnen”
Wanneer je CoPilot vraagt om “vat dit bedrijf samen”, krijg je vaak een plausibel profiel, maar het risico zit in details: markten, groei, ownership, aantal FTE—zaken die in executive search snel als waar worden aangenomen. De beste praktijk is daarom: samenvatten op basis van aangeleverde tekst en CoPilot dwingen om hiaten te benoemen. Dat doe je door je prompt te richten op: (a) wat staat er letterlijk, (b) wat betekent dat, (c) wat ontbreekt.
Werk in korte cycli. Je plakt bijvoorbeeld een stuk “About”, een persbericht en een interviewfragment en vraagt om een samenvatting met expliciete bronverwijzing (“Gebruik alleen de aangeleverde tekst; als iets ontbreekt, zet ‘onbekend’”). Laat CoPilot daarnaast een lijst maken van risicovolle claims die vaak fout gaan: ownership-structuur, geografische footprint, en de echte P&L-verantwoordelijkheid van de rol. Het effect is dat je niet alleen sneller schrijft, maar ook systematisch je eigen blinde vlekken opspoort.
Veelvoorkomende valkuil: je vraagt om een “complete company overview” terwijl je slechts marketingtekst hebt aangeleverd. CoPilot vult dan gaten op met algemeenheden (“innovative market leader”) of aannames die tóch concreet klinken. De correctie is simpel maar streng: beperk de output tot wat aantoonbaar uit de bron komt en laat CoPilot expliciet labelen: Feit / Interpretatie / Open vraag. Dit is claim-discipline in actie.
Typische misvatting: “CoPilot kan toch gewoon even checken op internet?” In veel setups kan CoPilot niet vrij browsen of kan het resultaten samenvatten zonder perfecte dekking. Behandel het dus alsof het géén autonome researcher is, maar een verwerker van jouw input. Dat maakt je proces betrouwbaarder en auditbaar, wat in retained trajecten belangrijker is dan “snel een mooi verhaal”.
2) Vergelijken met een vaste lens: consistentie in je longlist
De kracht in executive search zit niet alleen in individuele profielen, maar in vergelijkbaarheid. Als jij tien kandidaten of target-organisaties beschrijft met tien verschillende invalshoeken, wordt je longlist een verzameling losse mini-bio’s. CoPilot helpt je vooral als je werkt met een vast template (je “lens”) dat je telkens opnieuw toepast.
Denk aan een lens met 6–8 vaste dimensies, zoals: business model, scale, internationale footprint, transformatiecontext, governance/ownership, relevante stakeholdercomplexiteit, en signalen over leadership style. Als je CoPilot telkens dezelfde dimensies laat invullen (alleen op basis van jouw tekstbronnen), krijg je een matrix die veel sneller “scanbaar” is in klantcalls. Bovendien worden gaten zichtbaar: bij kandidaat A ontbreekt ownership-ervaring, bij kandidaat B ontbreekt bewijs voor change-leadership, etc.
Best practice: laat CoPilot niet meteen conclusies trekken (“beste fit”), maar eerst normaliseren: één standaardstructuur per kandidaat/organisatie. Pas daarna laat je CoPilot een vergelijking maken, met jouw criteria als weging (“Geef 3 sterke signalen en 3 risico’s per profiel afgezet tegen must-haves”). Zo voorkom je dat taalvaardigheid (mooie woorden) de analyse vervangt.
Een klassieke pitfall is dat CoPilot te vriendelijk is: het maakt van elk profiel een plausibele match. Professionele desk research vraagt juist om frictie: waar is het bewijs dun, waar is de claim te groot, waar spreken bronnen elkaar tegen? Vraag daarom expliciet om “tegenargumenten” en “oncomfortabele vragen voor de eerste call”. Daarmee gebruik je CoPilot als kwaliteitsfilter in plaats van marketingmachine.
Typische misvatting: “Als het in meerdere artikelen staat, is het waar.” Meerdere secundaire bronnen kunnen dezelfde onjuiste claim herhalen. Laat CoPilot daarom onderscheid maken tussen primaire bronnen (jaarverslag, officiële aankondiging, transcript, register) en secundaire bronnen (media, blogs, reposts). Dat brengt je bij een volwassen bronhiërarchie.
3) Van informatie naar verhaal: een executive-ready research memo
In retained search is desk research pas waardevol als het leidt tot een verhaal dat je kunt uitspreken in een Teams-call: kort, helder, onderbouwd. CoPilot is sterk in het maken van een memo dat zowel intern (zoekteam) als extern (klant) werkt—mits jij vooraf het doel definieert. Wil je een “target rationale”, een “role context summary”, of een “candidate positioning one-pager”? Die doelen vragen verschillende toon en detail.
Een executive-ready memo heeft meestal drie lagen. Eerst: context (wat gebeurt er in de markt/organisatie). Dan: implicaties (wat betekent dit voor de rol). Tot slot: evidence & uncertainties (waar baseren we dit op, en wat moeten we nog valideren). Laat CoPilot die lagen expliciet aanhouden en dwing het om onzekerheden niet weg te poetsen. In gesprekken werkt dit sterk: je klinkt onderbouwd én je laat zien dat je zorgvuldig bent.
Best practice: laat CoPilot ook “quote-worthy” zinnen maken voor klantupdates, maar altijd naast een blok “bron & nuance”. Bijvoorbeeld: één kernzin die je kunt gebruiken (“De uitdaging is minder groei, meer professionalisering van governance en performance cadence”), plus eronder wat je nog niet zeker weet (“Nog te verifiëren: mate van centralisatie, reporting lines, en investeringshorizon”). Dit is precies de stijl die vertrouwen wekt.
Een veelvoorkomend probleem is dat memo’s te lang worden. CoPilot kan hier helpen door te “compressen” naar verschillende lengtes: 50 woorden (call-opening), 200 woorden (update), 1 pagina (intern). Vraag niet alleen om een samenvatting, maar om drie varianten met verschillende doelen. Zo beheer je aandacht in Teams-meetings en voorkom je dat je zelf gaat improviseren.
Onderstaande tabel helpt je kiezen welk “product” je met CoPilot maakt, afhankelijk van je moment in het traject:
| Dimensie | Snelle intake-scan | Klantupdate-memo | Kandidaat one-pager |
|---|---|---|---|
| Doel | Richting bepalen en hiaten vinden | Transparant laten zien wat je weet en wat je nog onderzoekt | Kandidaten positioneren met bewijs en nuance |
| Inhoud | 5–7 bullets: feiten, aannames, open vragen | Context → implicaties → evidence/onzekerheden | Fit-argumenten, risico’s, vragen voor eerste call |
| Toon | Intern, scherp en kritisch | Zakelijk, traceerbaar, niet-speculatief | Neutraal-positief, maar met duidelijke caveats |
| Risico bij misbruik | Te snel concluderen op dunne info | “Mooi verhaal” zonder bronvastheid | Over-selling en reputatieschade richting kandidaat/klant |
[[flowchart-placeholder]]
Twee realistische voorbeelden uit retained executive search
Voorbeeld 1: Markt- en bedrijfsscan voor een “stealth” transformatierol
Stel: je zoekt een CFO/FD-profiel voor een portfolio-onderneming waar de klant weinig publiek wil delen. Je hebt wél: een korte investeringscase, een anonimized position brief, en een paar publieke bronnen (website, 1 persartikel, een directie-interview van twee jaar geleden). Zonder structuur verzand je snel in algemeenheden (“PE-backed, growth, professionalisation”). Met CoPilot kun je juist van beperkte input een scherp, gecontroleerd beeld maken.
Stap 1 is brongebonden samenvatten. Je voert de beschikbare teksten in en laat CoPilot een tabel maken met Feiten / Interpretaties / Open vragen. Feiten zijn bijvoorbeeld: sector, globale waardepropositie, eventuele locaties die letterlijk genoemd zijn. Interpretaties zijn: “waarschijnlijk ligt focus op cash & reporting cadence”, maar dan expliciet als hypothese. Open vragen worden direct bruikbaar voor de volgende klantcall: reporting line CFO, ERP-status, debt covenant complexiteit, en de echte scope van international.
Stap 2 is de memo-lagen. Je laat CoPilot een korte “call-opening” maken van 50 woorden die je in Teams kunt gebruiken zonder te speculeren. Daarna laat je hetzelfde comprimeren of uitbreiden naar een klantupdate-tekst met duidelijk gemarkeerde onzekerheden. De impact is tweeledig: je komt professioneel voorbereid over én je maakt het voor de klant gemakkelijker om ontbrekende informatie te geven, omdat je vragen al logisch geclusterd zijn.
De beperking blijft: als de bronnen dun zijn, blijft je output dun. CoPilot maakt dat alleen beter zichtbaar; het lost het niet “magisch” op. Maar precies dát is winst in retained: je stuurt het proces met scherpte en je voorkomt dat je team op basis van veronderstellingen gaat targeten.
Voorbeeld 2: Longlist-normalisatie op basis van LinkedIn “snippets” en gespreknotities
Stel: je hebt 12 potentiële kandidaten uit research, maar je informatie is ongelijk: bij sommigen heb je een uitgebreid profiel en een podcast, bij anderen alleen LinkedIn-snippets en één referentie-opmerking van een partner. Daarnaast heb je van drie verkennende calls al ruwe gespreknotities die je later moet uitwerken. Het risico is dat je longlist scheef groeit: de “beste” kandidaten lijken degenen waarover je toevallig meer tekst hebt.
Stap 1 is een vaste lens toepassen. Je kiest 6–8 dimensies die voor de rol tellen (bijvoorbeeld: scale, transformation context, stakeholder management, governance exposure, operating rhythm). Je voert per persoon alleen de beschikbare snippets/notities in en laat CoPilot per dimensie invullen met strikte labels: “bewijs uit tekst” versus “onbevestigd”. Zo ontstaan profielen die eerlijk vergelijkbaar zijn, inclusief gaten.
Stap 2 is het maken van een “risico/vragen”-blok per kandidaat. Je vraagt CoPilot expliciet om drie risico’s en drie vragen die je in een eerste diepte-interview wilt stellen, gebaseerd op wat ontbreekt of onduidelijk is. Dat is enorm praktisch: je gebruikt desk research direct om je interviewkwaliteit te verhogen, en je voorkomt dat je pas laat ontdekt dat iemand bijvoorbeeld wel de titel had, maar niet de echte P&L of change-leadership.
De impact op het bredere workflow-systeem is groot: je longlistgesprek met de klant wordt feitelijker, je candidate outreach wordt scherper (“waarom jij, waarom nu”), en je uitwerking van gesprekken wordt consistenter omdat je al een structuur hebt waarin notities landen. De beperking is dat je discipline nodig hebt: als je tóch toestaat dat CoPilot gaten opvult “om het verhaal rond te maken”, verlies je vergelijkbaarheid en betrouwbaarheid.
De essentie, kort en toepasbaar
Desk research met CoPilot werkt optimaal als je drie dingen combineert: brongebonden werken, een vaste vergelijkingslens, en memo’s in lagen (context → implicaties → evidence/onzekerheden). Daarmee maak je research sneller zonder dat je kwaliteit inlevert, en je bouwt aan een dossier dat je kunt hergebruiken in Teams-calls, klantupdates en kandidatengesprekken.
In de volgende les, you'll take this further with Hypotheses & target mapping [35 minutes].