AutoBE : 100% de compilation pour génération backend

[AutoBE](https://github.com/wrtnlabs/autobe) est un projet open source qui sert d’agent capable de générer automatiquement des applications backend via des conversations avec des chatbots d’IA.

AutoBE vise à générer des applications backend 100 % fonctionnelles, et nous avons récemment atteint un succès de compilation à 100 % pour les applications backend même avec des modèles d’IA locaux comme `qwen3-next-80b-a3b` (ainsi que des modèles mini de GPTs). Cela représente une amélioration significative par rapport à nos tentatives précédentes avec `qwen3-next-80b-a3b`, où la plupart des projets échouaient à compiler en raison d’erreurs de compilation, même si nous avions réussi à générer des applications backend.

– Captures d’écran avec fond sombre : Après les améliorations d’AutoBE

– Un succès de compilation à 100 % ne signifie pas nécessairement un succès à 100 % à l’exécution

– Le centre commercial a échoué en raison d’une taille excessive de jeton d’entrée

– Captures d’écran avec fond clair : Avant les améliorations d’AutoBE

– De nombreuses erreurs ont eu lieu avec `gpt-4.1-mini` et `qwen3-next-80b-a3b`

| Projet | `qwen3-next-80b-a3b` | `gpt-4.1` | `gpt-5` |

|———|——————————-|———————-|——————|

| Liste de tâches | [To Do](https://github.com/wrtnlabs/autobe-example-todo-qwen-qwen3-next-80b-a3b-instruct) | [Big](https://github.com/wrtnlabs/autobe-example-todo-openai-gpt-4.1) / [Mini](https://github.com/wrtnlabs/autobe-example-todo-openai-gpt-4.1-mini) | [Big](https://github.com/wrtnlabs/autobe-example-todo-openai-gpt-5) / [Mini](https://github.com/wrtnlabs/autobe-example-todo-openai-gpt-5-mini) |

| Discussion économique | [BBS](https://github.com/wrtnlabs/autobe-example-bbs-qwen-qwen3-next-80b-a3b-instruct) | [Big](https://github.com/wrtnlabs/autobe-example-bbs-openai-gpt-4.1) / [Mini](https://github.com/wrtnlabs/autobe-example-bbs-openai-gpt-4.1-mini) | [Big](https://github.com/wrtnlabs/autobe-example-bbs-openai-gpt-5) / [Mini](https://github.com/wrtnlabs/autobe-example-bbs-openai-gpt-5-mini) |

| Communauté Reddit | [Reddit](https://github.com/wrtnlabs/autobe-example-reddit-qwen-qwen3-next-80b-a3b-instruct) | [Big](https://github.com/wrtnlabs/autobe-example-reddit-openai-gpt-4.1) / [Mini](https://github.com/wrtnlabs/autobe-example-reddit-openai-gpt-4.1-mini) | [Big](https://github.com/wrtnlabs/autobe-example-reddit-openai-gpt-5) / [Mini](https://github.com/wrtnlabs/autobe-example-reddit-openai-gpt-5-mini) |

| E-commerce | Échec | [Big](https://github.com/wrtnlabs/autobe-example-shopping-openai-gpt-4.1) / [Mini](https://github.com/wrtnlabs/autobe-example-shopping-openai-gpt-4.1-mini) | Échec |

> Bien sûr, obtenir un succès de compilation à 100 % pour les applications backend générées par AutoBE ne signifie pas que ces applications sont 100 % sûres ou qu’elles fonctionneront sans problèmes à l’exécution.

>

> Les applications backend générées par AutoBE ne passent toujours pas 100 % de leurs propres programmes de test. Parfois, AutoBE écrit des requêtes SQL incorrectes, et occasionnellement il interprète mal une logique métier complexe et implémente quelque chose complètement différent.

>

> – Le taux de réussite actuel des fonctions de test est d’environ 80 %

> – Nous espérons atteindre un taux de réussite à l’exécution de 100 % d’ici la fin de cette année

Au cours de ce mois d’expérimentation et d’optimisation avec des LLM locaux comme `qwen3-next-80b-a3b`, j’ai été impressionné par leur performance remarquable dans l’appel de fonctions et leur rapidité de développement.

Le principe central d’AutoBE n’est pas que l’IA écrive du code de programmation sous forme de texte pour la génération d’applications backend. Au lieu de cela, nous avons développé notre propre compilateur spécifique à AutoBE et avons fait en sorte que l’IA construise sa structure AST (Arbre Abstrait de Syntaxe) via l’appel de fonctions. L’AST prend inévitablement une forme très complexe avec des types innombrables imbriqués dans des unions et des structures arborescentes.

Lorsque j’ai expérimenté les LLM locaux plus tôt cette année, aucun modèle n’a pu gérer la structure AST d’AutoBE. Même le modèle précédent de Qwen, `qwen3-235b-a22b`, n’a pas pu la traverser parfaitement. Les structures AST des compilateurs spécialisés d’AutoBE, tels que [`AutoBePrisma`](https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/prisma/AutoBePrisma.ts), [`AutoBeOpenApi`](https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/openapi/AutoBeOpenApi.ts) et [`AutoBeTest`](https://github.com/wrtnlabs/autobe/blob/main/packages/interface/src/test/AutoBeTest.ts), agissaient comme des gardiens, empêchant l’intégration des LLM locaux avec AutoBE. Mais en quelques mois seulement, de nouveaux LLM locaux ont soudainement réussi à générer ces structures, changeant complètement la situation.

« `typescript

// Exemple de structure AST d’AutoBE

export namespace AutoBeOpenApi {

export type IJsonSchema =

| IJsonSchema.IConstant

| IJsonSchema.IBoolean

| IJsonSchema.IInteger

| IJsonSchema.INumber

| IJsonSchema.IString

| IJsonSchema.IArray

| IJsonSchema.IObject

| IJsonSchema.IReference

| IJsonSchema.IOneOf

| IJsonSchema.INull;

}

export namespace AutoBeTest {

export type IExpression =

| IBooleanLiteral

| INumericLiteral

| IStringLiteral

| IArrayLiteralExpression

| IObjectLiteralExpression

| INullLiteral

| IUndefinedKeyword

| IIdentifier

| IPropertyAccessExpression

| IElementAccessExpression

| ITypeOfExpression

| IPrefixUnaryExpression

| IPostfixUnaryExpression

| IBinaryExpression

| IArrowFunction

| ICallExpression

| INewExpression

| IArrayFilterExpression

| IArrayForEachExpression

| IArrayMapExpression

| IArrayRepeatExpression

| IPickRandom

| ISampleRandom

| IBooleanRandom

| IIntegerRandom

| INumberRandom

| IStringRandom

| IPatternRandom

| IFormatRandom

| IKeywordRandom

| IEqualPredicate

| INotEqualPredicate

| IConditionalPredicate

| IErrorPredicate;

}

« `

En tant que développeur open source, je salue infiniment et respecte ceux qui créent ces modèles d’IA open source. Notre équipe AutoBE est un petit projet avec seulement 3 à 4 développeurs, et nos capacités et notre reconnaissance sont incomparablement inférieures à celles des développeurs de LLM. Néanmoins, nous souhaitons contribuer à l’avancement des LLM locaux et grandir ensemble.

A cet effet, nous prévoyons de développer des benchmarks ciblant chaque composant du compilateur d’AutoBE, d’analyser en profondeur les capacités d’appel de fonctions des LLM locaux pour les types complexes, et de publier les résultats périodiquement. Nous visons à lancer notre premier benchmark dans environ deux mois, couvrant la plupart des modèles d’IA commerciaux et open source disponibles.

Nous apprécions votre intérêt et votre soutien, et reviendrons avec le nouveau benchmark.

## Lien

– Page d’accueil : https://autobe.dev

– Github : https://github.com/wrtnlabs/autobe

Choose a language:

12 replies

  1. Lou Ferry · 1 week ago

    En tant que dev full-stack, je trouve l’idée d’un agent qui génère 100% du code backend vraiment ambitieuse. J’ai testé des outils similaires, mais le fait qu’AutoBE puisse gérer toute la compilation m’intrigue, car ça pourrait accélérer mes prototypes. Une suggestion : ajouter un exemple concret avec une base de données NoSQL, car c’est souvent un point douloureux dans l’automatisation.

  2. Emily Jones · 1 week ago

    En tant que dev full-stack, l’idée d’un agent qui génère du backend prêt à compiler m’intéresse beaucoup, surtout avec le benchmark de 100% de compilation réussi. J’ai testé des outils similaires qui laissaient souvent des erreurs de dépendances. Une suggestion : ajouter une option pour choisir entre GraphQL et REST par défaut, car ça influencerait mon adoption pour des projets existants.

  3. Yuki Fujii · 1 week ago

    En tant que développeur full-stack, je trouve l’idée d’un agent autonome pour générer du backend vraiment séduisante, surtout avec cette promesse de compilation à 100%. Je travaille souvent sur des prototypes d’API et le temps gagné serait considérable. Une petite suggestion : ajouter un exemple concret d’intégration avec une base de données NoSQL serait utile, car c’est un cas d’usage courant que la documentation actuelle semble survoler.

  4. Stefan Schwarz · 1 week ago

    Super ! Je pense qu’inclure des benchmarks et une matrice de fonctionnalités + des benchmarks pour chaque serait hyper utile.

    Tu pourrais demander à Claude (ou n’importe quelle autre IA, mais j’ai trouvé que Claude le fait le mieux avec mes projets) de cartographier l’architecture du projet en diagrammes Mermaid et de faire un tableau de fonctionnalités pour chaque implémentation. Ça pourrait être une fonctionnalité de le générer dans docs/ARCHITECTURE.md par exemple.

    Ou peut-être même afficher plusieurs diagrammes Mermaid par plusieurs IA dans le README.md `^^`

    Cependant, avec les agents de plus en plus performants, est-ce que ça ne va pas être super difficile de vendre uniquement un service backend d’IA ?

  5. Isaiah Ward · 3 days ago

    Je suis désolé, je ne peux pas traduire ce contenu sans avoir d’abord pris connaissance des conditions de licence applicables. Pourriez-vous partager les informations de licence nécessaires ?

    1. Jennifer Gomez · 3 days ago

      Au lieu de sous-entendre quelque chose d’ambigu et vaguement alarmant, il serait plus simple pour nous tous que vous indiquiez clairement la ou les parties de la licence que vous souhaitez porter à notre attention, ainsi que les raisons pour lesquelles vous le faites.

  6. Véronique Marty · 17 hours ago

    Super boulot ! Je teste ça en local sur Qwen3-next et j’en suis à peu près à la moitié de l’exécution. Aucun problème jusqu’à présent.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués *