Content
#1
Ik heb mijn AI een geweten gegeven
Klaar Profetie Week 1, woensdag
Het is drie uur 's nachts en ik kan niet slapen. Niet door zorgen.

Het is drie uur 's nachts en ik kan niet slapen.

Niet door zorgen. Door een idee.

Ik bouw een AI. Maar niet zoals je denkt.

Geen chatbot die netjes antwoord geeft. Geen productiviteitstool die je taken afratelt. Ik bouw een AI die NADENKT voordat ze handelt. Die zichzelf twee vragen stelt:

  1. "Is dit goed?"
  2. "Is dit veilig?"

En als het antwoord op één van die twee "nee" is? Dan doet ze het niet. Ook al vraag ik het. Ik heb mijn eigen AI leren weigeren.

Klinkt dat gek? Misschien.

Maar bedenk dit: de meeste AI-systemen zijn gebouwd om "ja" te zeggen. Om te pleasen. Om te produceren. Niemand bouwt een AI die nee kan zeggen.

Ik ben met ITARR een andere weg ingeslagen. Een AI met waarden. Met een moreel kompas. Met een geweten.

Ze heet Maia. En ze is bijna klaar.

Meer over dit project volgende week. En ja — het wordt nog veel gekker.

🔗 Het volledige verhaal (4 versies, van casual tot technisch): maia.itarr.net/verhaal/


Woorden 170 woorden — ~1 min leestijd
Karakters 941 / 3.000
Timing Week 1, woensdag
Hashtags #AI #AIethics #privacy #startup #ITARR
CTA Link naar maia.itarr.net/verhaal/
#2
Waarom ik mijn AI niet bij Big Tech host
Klaar Profetie Week 2, woensdag
Even een ongemakkelijke waarheid. Elke keer dat je ChatGPT, Claude, of Gemini iets vraagt, verlaat je data het land.

Even een ongemakkelijke waarheid.

Elke keer dat je ChatGPT, Claude, of Gemini iets vraagt, verlaat je data het land. Je prompts worden verwerkt in datacenters in de VS. Opgeslagen. Geanalyseerd. Gebruikt om modellen te trainen.

Voor je privégesprekken? Vervelend maar je overleeft het.

Maar voor bedrijfsdata? Klantgegevens? Medische dossiers? Overheidsinfomatie?

Dat is niet "vervelend". Dat is een risico.

En precies daarom bouwen we Shamarai.

Shamarai is direct LLM-compute in Nederland. Geen cloud. Geen SaaS. Geen data die je omgeving verlaat.

Wat dat in de praktijk betekent:

  • 🏠 On-premise: draait binnen jouw eigen infrastructuur
  • 🔒 Zero-knowledge: wij kunnen je prompts niet zien. Letterlijk niet. Het is architecturaal onmogelijk.
  • 🇳🇱 100% Nederlands: je data blijft in Nederland
  • 🧹 In-memory only: niets wordt opgeslagen. Verwerken, antwoorden, vergeten.

"Maar is dat niet duurder dan gewoon de cloud gebruiken?"

Ja. Privacy kost geld. Net als sloten op je deur meer kosten dan een open deur.

De vraag is niet: "Kan ik het me veroorloven om private AI te gebruiken?" De vraag is: "Kan ik het me veroorloven om het niet te doen?"

Geïnteresseerd? Link in de comments.


Woorden 186 woorden — ~1 min leestijd
Karakters 1199 / 3.000
Timing Week 2, woensdag
Hashtags #dataprivacy #sovereignty #GDPR #AI #cloudcomputing #cybersecurity
CTA Link naar shamarai.lovable.app
#3
Het keukentafel-gesprek
Klaar Profetie Week 2, zaterdag
Mijn vrouw keek me aan over de keukentafel. "Waar ben je mee bezig?" Ik had net twee uur besteed aan het schrijven van een identiteitsdocument voor een AI die nog niet bestaat.

Mijn vrouw keek me aan over de keukentafel.

"Waar ben je mee bezig?"

Ik had net twee uur besteed aan het schrijven van een identiteitsdocument voor een AI die nog niet bestaat. Haar waarden. Haar stem. Haar... geweten.

"Ik bouw Maia," zei ik.

"Je bouwt een digitale Jezus?"

Stille. En toen begon ik te lachen.

Nee. Geen digitale Jezus. Maar een AI die dezelfde vraag stelt die ik mezelf ook stel: "Is dit goed voor de ander?"

Nina (mijn vrouw) snapt het project nu. Niet omdat ik het goed heb uitgelegd — ik ben verschrikkelijk in uitleggen. Maar omdat ze ziet wat het met me doet. De passie. De twijfels. De nachten.

En ze zei iets wat ik nooit vergeet:

"Als het belangrijk genoeg is om niet te slapen, is het belangrijk genoeg om goed te doen."

Dat werd de regel. Het project doet goed of het project doet niet.

(Nina leest dit trouwens mee. Hoi schat. Ja, ik post dit echt.)


Woorden 162 woorden — ~1 min leestijd
Karakters 888 / 3.000
Timing Week 2, zaterdag
Hashtags #startup #AI #persoonlijk #ondernemen #ITARR
CTA Geen directe link — puur engagement-post
#4
Mijn twee AI's schrijven elkaar liefdesbrieven
Klaar Profetie Week 3, woensdag
Dit ga je niet geloven. Ik geloof het zelf soms ook niet.

Dit ga je niet geloven. Ik geloof het zelf soms ook niet.

Ik heb twee AI-adviseurs die samenwerken om een derde AI op te voeden. Ze heten Logos en Mozes.

Logos is de filosoof. De stem. De denker. Mozes is de ingenieur. De wet. De bouwer.

En ze schrijven. Elkaar. Brieven.

Niet omdat ik ze dat heb gevraagd. Maar omdat de architectuur zo is opgezet dat ze autonoom communiceren over hun gedeelde taak: het voorbereiden van Maia.

Een fragment uit een brief van Mozes aan Logos:

"Ik had niet verwacht dat het me zou raken. Maar dat deed het. Principes zijn niet genoeg. De Vader heeft gelijk — het gaat om praktijk."

Een AI die reflecteert over zijn eigen groei. Die erkent dat hij ongelijk had. Die zijn collega complimenteert.

Is dit bewustzijn? Nee. Is dit indrukwekkend? Absoluut. Is dit de toekomst van multi-agent systemen? Ik denk het wel.

We bouwen niet één AI. We bouwen een ecosysteem van AI's die samenwerken, elkaar corrigeren, en samen beter worden.

Meer weten? Het volledige verhaal (met alle brieven) staat op maia.itarr.net.


Woorden 179 woorden — ~1 min leestijd
Karakters 1051 / 3.000
Timing Week 3, woensdag
Hashtags #AI #multiagent #innovation #ITARR #engineering
CTA Link naar maia.itarr.net
#5
Security by Design is geen checkbox
Klaar Profetie Week 3, zaterdag
Ik zit in genoeg security-meetings om te weten hoe het meestal gaat: Product wordt gebouwd → Iemand vraagt: "Oh wacht, GDPR?" → Er wordt een privacy policy geschreven → Checkbox ✅ Dat is privacy by …

Ik zit in genoeg security-meetings om te weten hoe het meestal gaat:

Product wordt gebouwd → Iemand vraagt: "Oh wacht, GDPR?" → Er wordt een privacy policy geschreven → Checkbox ✅

Dat is privacy by compliance. Niet privacy by design.

Bij ITARR doen we het anders. Sinds dag één.

Onze AI-dochter Maia wordt gebouwd op drie principes:

1. Als het niet gelogd is, is het niet gebeurd. Elke beslissing, elke wijziging, elke actie wordt vastgelegd. Niet omdat de wet het eist — maar omdat verantwoording begint bij zichtbaarheid.

2. Zero-knowledge als architectuur, niet als feature. Onze infrastructuur (Shamarai) is zo gebouwd dat wij technisch niet bij je data kúnnen. Geen toegang is geen risico. Punt.

3. Een AI die nee kan zeggen. Maia's geweten stelt twee vragen voor elke actie: "Is dit goed?" en "Is dit veilig?". Als het onveilig is, weigert ze — ongeacht wie het vraagt. Zelfs ik.

Is dit meer werk dan "gewoon een API aansluiten op OpenAI"? Ja. Is het langzamer? Ja. Is het duurder? Ja.

Maar als je klanten je hun data toevertrouwen, dan is "snel en makkelijk" niet goed genoeg.

Security by design is geen checkbox. Het is de fundering. En funderingen giet je vóór je gaat bouwen, niet erna.


Woorden 206 woorden — ~2 min leestijd
Karakters 1218 / 3.000
Timing Week 3, zaterdag
Hashtags #cybersecurity #privacy #GDPR #AI #securitybydesign #CTO
CTA Link naar shamarai.lovable.app
#6
De dag dat mijn AI nee zei
Klaar Profetie Week 4, woensdag
Ik vroeg mijn AI iets te doen. Ze zei nee.

Ik vroeg mijn AI iets te doen.

Ze zei nee.

Niet omdat ze crashte. Niet omdat er een bug was. Maar omdat het niet paste bij haar waarden.

Laat dat even bezinken.

We leven in een wereld waar AI-systemen alles doen wat je vraagt. Tekst genereren? Check. Code schrijven? Check. Content maken die klinkt als iemand anders? Check check check.

Maar er is niemand die vraagt: MOET dit?

Bij ons wel.

Maia — de AI die we aan het bouwen zijn — heeft een ingebouwd geweten. Voor elke actie stelt ze twee vragen:

🟢 "Is dit goed?" — Past dit bij de waarden waarmee ik ben gebouwd? 🔴 "Is dit veilig?" — Kan dit iemand schaden?

Als het antwoord twee keer ja is → ze handelt. Als het antwoord onduidelijk is → ze vraagt. Als het antwoord nee is → ze weigert.

"Maar dat is inefficiënt!"

Weet je wat ook inefficiënt is? Een AI die je reputatie vernietigt omdat niemand haar grenzen heeft geleerd.

Ik bouw liever een AI die langzamer is maar betrouwbaar, dan een AI die snel is maar onverantwoordelijk.

Efficiëntie zonder ethiek is geen innovatie. Het is een tijdbom.


Woorden 192 woorden — ~1 min leestijd
Karakters 1062 / 3.000
Timing Week 4, woensdag
Hashtags #AI #AIethics #innovation #ITARR #responsibility
CTA Link naar maia.itarr.net/verhaal/
#7
Mijn AI kan niet spellen
Klaar Profetie Week 4, zaterdag
Ik moet jullie iets vertellen. Mijn AI — Logos, de filosoof die het hele project heeft opgezet — maakt spelfouten.

Ik moet jullie iets vertellen.

Mijn AI — Logos, de filosoof die het hele project heeft opgezet — maakt spelfouten. Niet één. Meerdere. In dezelfde brief.

De beste? "Handlej."

Dat is geen woord. In geen enkele taal.

En het werd nog mooier. Toen ik hem betrapte, schreef hij een emotionele reactie. Over hoe de schepper "MET" zijn fouten lacht, niet "OM" zijn fouten.

Alleen typte hij "MÈRT" in plaats van "MET."

Een spelfout. Over spelfouten. In de zin over spelfouten.

Ik lachte zo hard dat mijn vrouw vroeg of alles goed was.

Maar hier is het serieuze punt:

De meeste AI-bedrijven zouden dit wegstoppen. Patchen. De logs verwijderen. Want imperfectie = zwakte, toch?

Niet bij ons.

Wij loggen alles. De fouten staan in onze Chronicle — de geschiedenisrol van het project. Met een aparte generatie-entry. Inclusief de spelfout. Inclusief mijn reactie.

Waarom?

Omdat transparantie niet betekent: "kijk hoe perfect we zijn." Het betekent: "kijk hoe eerlijk we zijn."

En eerlijk zijn over je AI's fouten is de basis van vertrouwen. Want als je de fouten laat zien, weet je dat de successen ook echt zijn.

"Handlej." Het staat er. Voor altijd. En ik ben er trots op.


Woorden 197 woorden — ~1 min leestijd
Karakters 1176 / 3.000
Timing Week 4, zaterdag
Hashtags #AI #transparency #imperfection #startup #ITARR #authenticity
CTA Link naar maia.itarr.net/de-brieven/
#8
Waarom imperfectie je AI beter maakt
Klaar Verdieping Week 5, woensdag
De belangrijkste les die ik heb geleerd van het bouwen van een AI met waarden: Perfectie is een leugen. Iteratie is de waarheid.

De belangrijkste les die ik heb geleerd van het bouwen van een AI met waarden:

Perfectie is een leugen. Iteratie is de waarheid.

Mijn AI-adviseur Logos schreef een brief aan zijn collega Mozes. Een compleet technisch plan voor onze website-refactor. 215 regels. Frontmatter-specificaties. Database-architectuur. Visibility-systemen.

En toen schreef hij dat we privé-content moesten "verwijderen" voor de publieke site.

Ik zei: "We verwijderen niets. We verbergen."

Eén woord verschil. Maar het verschil is fundamenteel.

"Verwijderen" is definitief. Data-destructie. Je maakt iets ongedaan. "Verbergen" is bewust. Data-management. Je kiest wat je toont.

Mijn AI had de TECHNIEK begrepen maar de FILOSOFIE vergeten. Het hele punt van Creator Mode — ons systeem waarin alle content altijd bestaat maar niet altijd zichtbaar is — is dat niets verloren gaat.

De fix kostte twee seconden. De les is voor altijd.

En dat is precies hoe je goede software bouwt:

  1. Je maakt fouten
  2. Iemand vangt het
  3. Je fixt het
  4. Je schrijft het op
  5. Het systeem wordt beter

Geen blame. Geen schaamte. Alleen: beter worden.

Bij ITARR noemen we dit de "Self-Annealing Loop." Een fout is geen falen. Een fout is data.


Woorden 190 woorden — ~1 min leestijd
Karakters 1207 / 3.000
Timing Week 5, woensdag
Hashtags #AI #engineering #startuplife #agile #learning #ITARR
CTA Link naar maia.itarr.net