Notre mission, en tant qu’investisseurs, est de nous immerger dans tous les aspects du secteur technologique afin de anticiper ses prochaines évolutions. Ainsi, chaque mois de décembre, nous sollicitons nos équipes d’investissement pour qu’elles partagent une idée majeure que les acteurs de la tech pourraient aborder l’année suivante.
Aujourd’hui, nous présentons les analyses de nos équipes Infrastructure, Growth, Bio + Health et Speedrun. Rendez-vous demain pour les perspectives de nos autres équipes.
Les données multimodales non structurées constituent à la fois le principal obstacle et le plus grand potentiel inexploité des entreprises. Toutes sont submergées de PDF, captures d’écran, vidéos, logs, e-mails et flux semi-structurés. Les modèles d’IA progressent, mais les données d’entrée se complexifient, ce qui conduit les systèmes RAG à générer des hallucinations, les agents à échouer de manière subtile et coûteuse, et les processus critiques à dépendre encore fortement du contrôle qualité humain. La limite pour les sociétés d’IA est désormais l’entropie des données : la dégradation continue de la fraîcheur, de la structuration et de la véracité dans l’univers non structuré où se trouve aujourd’hui 80 % du savoir d’entreprise.
Démêler les données non structurées devient ainsi une opportunité générationnelle. Les entreprises ont besoin de solutions continues pour nettoyer, structurer, valider et gouverner leurs données multimodales afin de garantir l’efficacité des charges de travail IA. Les cas d’usage sont multiples : analyse de contrats, parcours d’intégration, gestion des réclamations, conformité, support, achats, recherche ingénierie, facilitation des ventes, pipelines analytiques, et tout workflow d’agent nécessitant un contexte fiable. Les startups qui créent des plateformes capables d’extraire la structure des documents, images et vidéos ; de résoudre les conflits ; de réparer les pipelines ; ou de maintenir la fraîcheur et l’accessibilité des données détiennent la clé du savoir et des processus d’entreprise.
Depuis près de dix ans, le recrutement est le principal défi des CISOs. De 2013 à 2021, les postes vacants en cybersécurité sont passés de moins de 1 million à 3 millions. Les équipes de sécurité recrutent des techniciens hautement qualifiés pour des tâches de niveau 1 fastidieuses, comme l’analyse de logs, que peu souhaitent effectuer. Ce problème provient du fait que les équipes achètent des produits qui détectent tout, obligeant à tout examiner—ce qui crée une pénurie artificielle de main-d’œuvre. Un cercle vicieux.
En 2026, l’IA mettra fin à ce cycle et réduira le déficit de recrutement en automatisant une grande partie du travail répétitif et redondant. Toute personne ayant travaillé au sein d’une grande équipe de sécurité sait que la moitié des tâches pourraient être automatisées, mais il est difficile de savoir lesquelles quand on est submergé. Les outils IA natifs qui identifient ces tâches permettront enfin aux équipes de se consacrer à ce qui compte : traquer les attaquants, concevoir de nouveaux systèmes et corriger les vulnérabilités.
En 2026, le bouleversement infrastructurel viendra de l’intérieur. Nous passons d’un trafic à vitesse humaine, prévisible et à faible concurrence, à des charges de travail “agent-speed” : récursives, massives et explosives.
Les backends d’entreprise actuels sont conçus pour un ratio 1:1 entre action humaine et réponse système. Ils ne sont pas architecturés pour qu’un objectif agentique unique déclenche une cascade de 5 000 sous-tâches, requêtes base de données et appels API internes en quelques millisecondes. Lorsqu’un agent refactorise un code ou corrige un log de sécurité, il ne ressemble pas à un utilisateur. Pour une base de données ou un limiteur de débit traditionnel, cela s’apparente à une attaque DDoS.
Construire pour les agents en 2026 implique de réinventer le plan de contrôle. On verra émerger l’infrastructure agent-native. La prochaine génération devra considérer les schémas de “thundering herd” comme état par défaut. Les délais de démarrage à froid devront diminuer, la variance de latence s’effondrer, et les limites de concurrence augmenter fortement. La coordination devient le goulot d’étranglement : routage, verrouillage, gestion d’état et application des politiques sur des exécutions parallèles massives. Les plateformes gagnantes seront celles capables de supporter le déluge d’exécutions d’outils qui s’ensuivra.
Nous avons désormais les briques pour raconter des histoires avec l’IA : voix génératives, musique, images, vidéo. Mais pour tout ce qui dépasse un clip ponctuel, il est souvent long et frustrant—voire impossible—d’obtenir le résultat souhaité, surtout si l’on cherche un contrôle proche de celui d’un réalisateur traditionnel.
Pourquoi ne pas donner à un modèle une vidéo de 30 secondes et lui demander de poursuivre la scène avec un nouveau personnage créé à partir d’une image et d’une voix de référence ? Ou refaire une prise pour voir la scène sous un autre angle, ou synchroniser le mouvement avec une vidéo de référence ?
2026 sera l’année où l’IA deviendra multimodale. Fournissez n’importe quel contenu de référence à un modèle et collaborez avec lui pour créer ou éditer une scène. Les premiers produits émergent déjà, comme Kling O1 et Runway Aleph. Mais beaucoup reste à faire—et l’innovation doit se poursuivre tant au niveau des modèles que des applications.
La création de contenu est un cas d’usage phare de l’IA, et je m’attends à voir émerger plusieurs produits performants pour différents usages et publics, des créateurs de mèmes aux réalisateurs hollywoodiens.
La dernière année a vu une forte consolidation du “modern data stack”, les sociétés de données passant de la spécialisation sur l’ingestion, la transformation et le calcul à des plateformes unifiées. Exemple : fusion Fivetran/dbt et montée de Databricks.
Si l’écosystème paraît plus mature, nous sommes encore aux prémices d’une architecture de données réellement AI-native. Nous sommes enthousiastes quant à la capacité de l’IA à transformer les différentes parties de la pile de données, et nous observons comment données et infrastructure IA deviennent indissociables.
Quelques idées qui nous motivent :

En 2026, la vidéo cessera d’être un contenu que l’on regarde passivement pour devenir un espace où l’on peut véritablement s’immerger. Les modèles vidéo comprendront enfin le temps, retiendront ce qu’ils ont montré, réagiront à nos actions et maintiendront la cohérence attendue du monde physique. Plutôt que de livrer quelques secondes d’images déconnectées, ces systèmes feront durer personnages, objets et physiques pour que les actions importent et que les conséquences se manifestent. Ce changement transforme la vidéo en un support de création : un espace où robots s’entraînent, jeux évoluent, designers prototypent et agents apprennent par l’action. Ce qui émerge ressemble moins à un clip qu’à un environnement vivant, réduisant l’écart entre perception et action. Pour la première fois, nous pouvons habiter les vidéos générées.
En 2026, la véritable révolution du logiciel d’entreprise sera la perte de primauté du système de référence. L’IA réduit la distance entre intention et exécution : les modèles peuvent lire, écrire et raisonner directement sur les données opérationnelles, transformant ITSM et CRM de bases passives en moteurs de workflows autonomes. À mesure que les modèles de raisonnement et workflows agentiques progressent, ces systèmes pourront anticiper, coordonner et exécuter des processus de bout en bout. L’interface devient une couche dynamique d’agents, tandis que le système de référence traditionnel s’efface en tant que couche de persistance commoditisée—son levier stratégique revenant à celui qui contrôle l’environnement d’exécution intelligent utilisé par les collaborateurs.
L’IA a propulsé les logiciels verticaux vers une croissance inédite. Santé, juridique et immobilier ont atteint plus de 100 millions USD d’ARR en quelques années ; finance et comptabilité suivent de près. L’évolution a débuté par la recherche d’information : trouver, extraire et résumer la bonne donnée. 2025 a apporté le raisonnement : Hebbia analyse les états financiers et construit des modèles, Basis rapproche les soldes de comptes sur différents systèmes, EliseAI diagnostique les problèmes de maintenance et dépêche les bons prestataires.
2026 débloque le mode collaboratif. Les logiciels verticaux bénéficient d’interfaces, de données et d’intégrations spécifiques à leur domaine. Mais le travail vertical est par nature multipartite. Si les agents doivent représenter le travail, ils doivent collaborer. Acheteurs et vendeurs, locataires, conseillers et prestataires ont chacun des permissions, workflows et exigences de conformité que seul le logiciel vertical comprend.
Aujourd’hui, chaque partie utilise l’IA isolément, ce qui crée des transitions sans autorité. L’IA qui analyse les contrats d’achat ne discute pas avec le CFO pour ajuster son modèle. L’IA de maintenance ignore ce que le personnel sur site a promis au locataire. La collaboration change la donne en coordonnant les parties prenantes : routage vers les spécialistes, maintien du contexte, synchronisation des changements. Les IA contreparties négocient dans les paramètres et signalent les asymétries à l’examen humain. La correction du senior partner entraîne le système pour tout le cabinet. Les tâches réalisées par l’IA aboutiront à des taux de réussite plus élevés.
Et lorsque la valeur augmente grâce à la collaboration multi-humaine et multi-agent, les coûts de changement s’élèvent. C’est ici que l’on verra les effets réseau qui ont échappé aux applications IA : la couche collaborative devient le rempart.
En 2026, les utilisateurs commenceront à interagir avec le web via leurs agents. Ce qui comptait pour la consommation humaine ne sera plus aussi central pour celle des agents.
Pendant des années, nous avons optimisé pour des comportements humains prévisibles : être bien classé sur Google, apparaître parmi les premiers résultats sur Amazon, commencer par un TL;DR. Lors de mon cours de journalisme, on nous enseignait la méthode des 5W + H, et d’accrocher le lecteur dès l’introduction. Un humain aurait pu passer à côté d’une information clé enfouie page cinq, mais l’agent ne la manquera pas.
Ce changement concerne aussi le logiciel. Les applications étaient conçues pour les yeux et les clics humains, et l’optimisation passait par une bonne UI et des parcours intuitifs. À mesure que les agents prennent en charge la récupération et l’interprétation, le design visuel devient moins central à la compréhension. Au lieu d’ingénieurs scrutant des dashboards Grafana, les SRE IA interprètent la télémétrie et publient des insights sur Slack. Au lieu d’équipes commerciales fouillant les CRM, les agents font remonter automatiquement tendances et synthèses.
Nous ne concevons plus pour les humains, mais pour les agents. La nouvelle optimisation porte sur la lisibilité machine—ce qui va transformer notre manière de créer et les outils que nous utilisons.
Depuis 15 ans, le temps d’écran est le meilleur indicateur de valeur délivrée dans les applications grand public et professionnelles. Nous vivons dans un paradigme axé sur les heures de streaming Netflix, les clics dans l’UX d’un dossier médical informatisé (pour prouver l’usage effectif), ou le temps passé sur chatGPT comme indicateur clé. À mesure que l’on évolue vers une tarification basée sur les résultats, alignant parfaitement les intérêts des vendeurs et des utilisateurs, nous abandonnerons d’abord le reporting du temps d’écran.
Nous l’observons déjà. Quand j’effectue des recherches DeepResearch sur ChatGPT, je génère énormément de valeur sans quasiment aucun temps d’écran. Quand Abridge capte magiquement la conversation patient-médecin et automatise les tâches en aval, le médecin ne regarde presque pas l’écran. Quand Cursor développe des applications entières de bout en bout, l’ingénieur prépare le prochain cycle de développement. Et quand Hebbia rédige une présentation à partir de centaines de documents publics, le banquier d’investissement profite d’un repos bien mérité.
Cela pose un défi : combien une application peut-elle facturer par utilisateur nécessite une méthode plus complexe de mesure du ROI. La satisfaction des médecins, la productivité des développeurs, le bien-être des analystes financiers et le bonheur des consommateurs augmentent tous avec les applications IA. Les sociétés qui présentent l’argumentaire ROI le plus simple continueront à devancer leurs concurrents.
En 2026, un nouveau segment de clientèle santé occupera le devant de la scène : les “MAUs en bonne santé”.
Le système de santé traditionnel a principalement servi trois segments d’utilisateurs : (a) les “MAUs malades” : personnes avec des besoins ponctuels et coûteux ; (b) les “DAUs malades” : ceux nécessitant des soins intensifs et de longue durée ; et (c) les “YAUs en bonne santé” : individus relativement sains qui consultent rarement un médecin. Les YAUs en bonne santé risquent de devenir des MAUs/DAUs malades, et la prévention pourrait ralentir cette évolution. Mais notre système de remboursement, axé sur la réaction, favorise le traitement plutôt que la prévention, si bien que les services de contrôle et de suivi proactifs ne sont pas prioritaires, et que l’assurance ne les couvre que rarement.
Voici les MAUs en bonne santé : des consommateurs qui ne sont pas malades mais souhaitent surveiller et comprendre leur santé de façon récurrente—et qui représentent potentiellement la plus grande part de la population. Nous anticipons une vague de sociétés—nouvelles venues IA-native et acteurs historiques repensés—qui proposeront des services récurrents à cette cible.
Avec le potentiel de l’IA pour réduire la structure de coûts des soins, l’émergence de nouveaux produits d’assurance santé axés sur la prévention, et des consommateurs plus enclins à payer de leur poche pour des modèles d’abonnement, les “MAUs en bonne santé” constituent le prochain segment à fort potentiel pour la healthtech : engagés en continu, informés par les données et orientés prévention.
En 2026, les world models alimentés par l’IA vont révolutionner la narration à travers des mondes virtuels interactifs et des économies numériques. Des technologies comme Marble (World Labs) et Genie 3 (DeepMind) génèrent déjà des environnements 3D complets à partir de prompts textuels, permettant aux utilisateurs de les explorer comme dans un jeu. À mesure que les créateurs adoptent ces outils, de nouveaux formats narratifs émergeront, aboutissant potentiellement à un “Minecraft génératif” où les joueurs co-créent des univers vastes et évolutifs. Ces mondes pourraient mêler mécaniques de jeu et programmation en langage naturel, comme donner l’ordre “crée un pinceau qui colore tout ce que je touche en rose”.
Ces modèles brouilleront la frontière entre joueur et créateur, transformant les utilisateurs en co-auteurs de réalités partagées dynamiques. Cette évolution pourrait donner naissance à des multivers génératifs interconnectés, où coexistent des genres variés comme le fantastique, l’horreur ou l’aventure. Au sein de ces univers, les économies numériques prospéreront, les créateurs générant des revenus en concevant des assets, guidant les nouveaux venus ou développant de nouveaux outils interactifs. Au-delà du divertissement, ces mondes génératifs serviront d’environnements de simulation riches pour entraîner des agents IA, des robots, et peut-être même l’AGI. L’essor des world models marque ainsi non seulement un nouveau genre ludique, mais aussi un nouveau support créatif et un nouveau front économique.
2026 sera “l’année du moi” : le moment où les produits cesseront d’être conçus pour la masse et commenceront à être faits pour vous.
On le voit partout.
En éducation, des startups comme Alphaschool développent des tuteurs IA qui s’adaptent au rythme et à la curiosité de chaque élève, offrant à chacun une éducation personnalisée selon ses préférences. Ce niveau d’attention était auparavant impossible sans des dizaines de milliers de dollars de tutorat par élève.
En santé, l’IA conçoit des routines de compléments, d’entraînement et de repas adaptées à votre biologie. Plus besoin de coach ou de laboratoire.
Même dans les médias, l’IA permet aux créateurs de remixer news, émissions et histoires en fils personnalisés correspondant à vos intérêts et votre ton.
Les plus grandes entreprises du siècle dernier ont prospéré en ciblant le consommateur moyen.
Les plus grandes entreprises du siècle à venir réussiront en trouvant l’individu au sein de la moyenne.
2026 est l’année où le monde cesse d’optimiser pour tous et commence à optimiser pour vous.
En 2026, je m’attends à voir naître la première université AI-native, une institution conçue dès le départ autour de systèmes intelligents.
Ces dernières années, les universités ont expérimenté la notation, le tutorat et la planification assistés par IA. Mais ce qui émerge aujourd’hui est plus profond : un organisme académique adaptatif qui apprend et s’optimise en temps réel.
Imaginez une institution où cours, conseils, collaborations de recherche et même gestion des bâtiments s’adaptent en continu grâce à des boucles de feedback data. Les emplois du temps s’optimisent d’eux-mêmes. Les listes de lectures évoluent chaque nuit et se réécrivent à mesure que de nouvelles recherches apparaissent. Les parcours d’apprentissage s’ajustent en temps réel au rythme et au contexte de chaque étudiant.
Nous voyons déjà les prémices. Le partenariat campus-wide d’ASU avec OpenAI a généré des centaines de projets IA dans l’enseignement et l’administration. SUNY intègre désormais l’IA dans ses exigences de formation générale. Ce sont les briques pour un déploiement plus fondamental.
Dans l’université AI-native, les professeurs deviennent des architectes de l’apprentissage, curant les données, ajustant les modèles et enseignant aux étudiants à interroger le raisonnement machine.
L’évaluation évolue aussi. Les outils de détection et les interdictions de plagiat laissent place à une évaluation AI-aware, notant les étudiants sur leur usage de l’IA, et non sur le fait qu’ils l’utilisent. La transparence et l’application raisonnée remplacent l’interdiction.
Et alors que chaque secteur peine à recruter des profils capables de concevoir, gouverner et collaborer avec des systèmes IA, cette nouvelle université devient le vivier, formant des diplômés experts en orchestration pour accompagner un marché du travail en mutation rapide.
Cette université AI-native deviendra le moteur de talents pour la nouvelle économie.
Rendez-vous demain pour la deuxième partie.
S’abonner
Cette newsletter est fournie uniquement à titre informatif et ne doit pas être considérée comme un conseil juridique, commercial, d’investissement ou fiscal. Par ailleurs, ce contenu ne constitue pas un conseil en investissement, ni une recommandation destinée aux investisseurs ou futurs investisseurs des fonds a16z. Cette newsletter peut contenir des liens vers d’autres sites ou intégrer des informations issues de sources tierces— a16z n’a pas vérifié indépendamment ni ne garantit l’exactitude actuelle ou future de ces informations. Si ce contenu inclut des publicités tierces, a16z ne les a pas examinées et n’endosse aucun contenu publicitaire ni aucune société mentionnée. Les investissements ou sociétés en portefeuille évoqués ne représentent pas l’ensemble des investissements réalisés par a16z ; consultez https://a16z.com/investment-list/ pour la liste complète. D’autres informations importantes sont disponibles sur a16z.com/disclosures. Vous recevez cette newsletter car vous vous y êtes inscrit précédemment ; pour vous désinscrire des prochaines newsletters, vous pouvez le faire immédiatement.





