FastAPI
FastAPI est un framework pour construire des API en Python.
Le générateur FastAPI crée une nouvelle application FastAPI avec une infrastructure AWS CDK préconfigurée. Le backend généré utilise AWS Lambda pour un déploiement serverless, exposé via une API Gateway HTTP d’AWS. Il configure AWS Lambda Powertools pour l’observabilité, incluant le logging, le tracing AWS X-Ray et les métriques CloudWatch.
Utilisation
Générer une FastAPI
Vous pouvez générer une nouvelle API FastAPI de deux manières :
- Installez le Nx Console VSCode Plugin si ce n'est pas déjà fait
- Ouvrez la console Nx dans VSCode
- Cliquez sur
Generate (UI)
dans la section "Common Nx Commands" - Recherchez
@aws/nx-plugin - py#fast-api
- Remplissez les paramètres requis
- Cliquez sur
Generate
pnpm nx g @aws/nx-plugin:py#fast-api
yarn nx g @aws/nx-plugin:py#fast-api
npx nx g @aws/nx-plugin:py#fast-api
bunx nx g @aws/nx-plugin:py#fast-api
Vous pouvez également effectuer une simulation pour voir quels fichiers seraient modifiés
pnpm nx g @aws/nx-plugin:py#fast-api --dry-run
yarn nx g @aws/nx-plugin:py#fast-api --dry-run
npx nx g @aws/nx-plugin:py#fast-api --dry-run
bunx nx g @aws/nx-plugin:py#fast-api --dry-run
Options
Paramètre | Type | Par défaut | Description |
---|---|---|---|
name Requis | string | - | project name. |
directory | string | packages | The directory to store the application in. |
Résultat du générateur
Le générateur va créer la structure de projet suivante dans le répertoire <directory>/<api-name>
:
- project.json Configuration du projet et cibles de build
- pyproject.toml Configuration du projet Python et dépendances
Répertoire<module_name>
- __init__.py Initialisation du module
- init.py Configure l’application FastAPI et le middleware powertools
- main.py Implémentation de l’API
Le générateur crée également des constructs CDK pour déployer votre API, situés dans le répertoire packages/common/constructs
.
Implémentation de votre FastAPI
L’implémentation principale de l’API se trouve dans main.py
. C’est ici que vous définissez vos routes API et leurs implémentations. Exemple :
from .init import app, tracerfrom pydantic import BaseModel
class Item(BaseModel): name: str
@app.get("/items/{item_id}")def get_item(item_id: int) -> Item: return Item(name=...)
@app.post("/items")def create_item(item: Item): return ...
Le générateur configure automatiquement plusieurs fonctionnalités :
- Intégration d’AWS Lambda Powertools pour l’observabilité
- Middleware de gestion d’erreurs
- Corrélation requête/réponse
- Collecte de métriques
- Handler AWS Lambda utilisant Mangum
Observabilité avec AWS Lambda Powertools
Logging
Le générateur configure le logging structuré avec AWS Lambda Powertools. Vous pouvez accéder au logger dans vos gestionnaires de route :
from .init import app, logger
@app.get("/items/{item_id}")def read_item(item_id: int): logger.info("Fetching item", extra={"item_id": item_id}) return {"item_id": item_id}
Le logger inclut automatiquement :
- Des IDs de corrélation pour le tracing
- Le chemin et la méthode de la requête
- Les informations de contexte Lambda
- Les indicateurs de cold start
Tracing
Le tracing AWS X-Ray est configuré automatiquement. Vous pouvez ajouter des sous-segments personnalisés :
from .init import app, tracer
@app.get("/items/{item_id}")@tracer.capture_methoddef read_item(item_id: int): # Crée un nouveau sous-segment with tracer.provider.in_subsegment("fetch-item-details"): # Votre logique ici return {"item_id": item_id}
Métriques
Des métriques CloudWatch sont collectées automatiquement pour chaque requête. Vous pouvez ajouter des métriques personnalisées :
from .init import app, metricsfrom aws_lambda_powertools.metrics import MetricUnit
@app.get("/items/{item_id}")def read_item(item_id: int): metrics.add_metric(name="ItemViewed", unit=MetricUnit.Count, value=1) return {"item_id": item_id}
Les métriques par défaut incluent :
- Nombre de requêtes
- Compteurs de succès/échec
- Métriques de cold start
- Métriques par route
Gestion des erreurs
Le générateur inclut une gestion d’erreurs complète :
from fastapi import HTTPException
@app.get("/items/{item_id}")def read_item(item_id: int): if item_id < 0: raise HTTPException(status_code=400, detail="Item ID must be positive") return {"item_id": item_id}
Les exceptions non gérées sont capturées par le middleware et :
- Loggent l’exception complète avec la stack trace
- Enregistrent une métrique d’échec
- Renvoient une réponse 500 sécurisée au client
- Préservent l’ID de corrélation
Streaming
Avec FastAPI, vous pouvez streamer une réponse au client avec le type StreamingResponse
.
Modifications d’infrastructure
Comme AWS API Gateway ne supporte pas les réponses streamées, vous devrez déployer votre FastAPI sur une plateforme qui le supporte. L’option la plus simple est d’utiliser une Function URL AWS Lambda. Pour cela, modifiez le construct HttpApi
généré pour ajouter une option de streaming et instanciez conditionnellement les constructs appropriés.
Exemple de modifications
import { Construct } from 'constructs';import { CfnOutput, Duration } from 'aws-cdk-lib';import { CfnOutput, Duration, Stack } from 'aws-cdk-lib'; import { CorsHttpMethod, HttpApi as _HttpApi,@@ -7,7 +7,16 @@ import { IHttpRouteAuthorizer, } from 'aws-cdk-lib/aws-apigatewayv2';
}, });
this.api = new _HttpApi(this, id, { corsPreflight: { allowOrigins: props.allowedOrigins ?? ['*'], allowMethods: [CorsHttpMethod.ANY], allowHeaders: [ 'authorization', 'content-type', 'x-amz-content-sha256', 'x-amz-date', 'x-amz-security-token', ], }, defaultAuthorizer: props.defaultAuthorizer, }); let apiUrl; if (props.apiType === 'api-gateway') { this.api = new _HttpApi(this, id, { corsPreflight: { allowOrigins: props.allowedOrigins ?? ['*'], allowMethods: [CorsHttpMethod.ANY], allowHeaders: [ 'authorization', 'content-type', 'x-amz-content-sha256', 'x-amz-date', 'x-amz-security-token', ], }, defaultAuthorizer: props.defaultAuthorizer, });
this.api.addRoutes({ path: '/{proxy+}', methods: [ HttpMethod.GET, HttpMethod.DELETE, HttpMethod.POST, HttpMethod.PUT, HttpMethod.PATCH, HttpMethod.HEAD, ], integration: new HttpLambdaIntegration( 'RouterIntegration', this.routerFunction, ), }); this.api.addRoutes({ path: '/{proxy+}', methods: [ HttpMethod.GET, HttpMethod.DELETE, HttpMethod.POST, HttpMethod.PUT, HttpMethod.PATCH, HttpMethod.HEAD, ], integration: new HttpLambdaIntegration( 'RouterIntegration', this.routerFunction, ), }); apiUrl = this.api.url; } else { const stack = Stack.of(this); this.routerFunction.addLayers( LayerVersion.fromLayerVersionArn( this, 'LWALayer', `arn:aws:lambda:${stack.region}:753240598075:layer:LambdaAdapterLayerX86:24`, ), ); this.routerFunction.addEnvironment('PORT', '8000'); this.routerFunction.addEnvironment( 'AWS_LWA_INVOKE_MODE', 'response_stream', ); this.routerFunction.addEnvironment( 'AWS_LAMBDA_EXEC_WRAPPER', '/opt/bootstrap', ); this.routerFunctionUrl = this.routerFunction.addFunctionUrl({ authType: FunctionUrlAuthType.AWS_IAM, invokeMode: InvokeMode.RESPONSE_STREAM, cors: { allowedOrigins: props.allowedOrigins ?? ['*'], allowedHeaders: [ 'authorization', 'content-type', 'x-amz-content-sha256', 'x-amz-date', 'x-amz-security-token', ], }, }); apiUrl = this.routerFunctionUrl.url; }
new CfnOutput(this, `${props.apiName}Url`, { value: this.api.url! }); new CfnOutput(this, `${props.apiName}Url`, { value: apiUrl! });
RuntimeConfig.ensure(this).config.httpApis = { ...RuntimeConfig.ensure(this).config.httpApis!, [props.apiName]: this.api.url!, [props.apiName]: apiUrl, }; }
public grantInvokeAccess(role: IRole) { role.addToPrincipalPolicy( new PolicyStatement({ effect: Effect.ALLOW, actions: ['execute-api:Invoke'], resources: [this.api.arnForExecuteApi('*', '/*', '*')], }), ); if (this.api) { role.addToPrincipalPolicy( new PolicyStatement({ effect: Effect.ALLOW, actions: ['execute-api:Invoke'], resources: [this.api.arnForExecuteApi('*', '/*', '*')], }), ); } else if (this.routerFunction) { role.addToPrincipalPolicy( new PolicyStatement({ effect: Effect.ALLOW, actions: ['lambda:InvokeFunctionUrl'], resources: [this.routerFunction.functionArn], conditions: { StringEquals: { 'lambda:FunctionUrlAuthType': 'AWS_IAM', }, }, }), ); } } }
Après ces modifications, mettez à jour packages/common/constructs/src/app/http-apis/<my-api>.ts
pour utiliser votre nouvelle option de function url.
Implémentation
Une fois l’infrastructure mise à jour pour supporter le streaming, vous pouvez implémenter une API de streaming dans FastAPI. L’API doit :
- Retourner une
StreamingResponse
- Déclarer le type de chaque chunk de réponse
- Ajouter l’extension OpenAPI
x-streaming: true
si vous comptez utiliser API Connection.
Par exemple, pour streamer une série d’objets JSON :
from pydantic import BaseModelfrom fastapi.responses import StreamingResponse
class Chunk(BaseModel): message: str timestamp: datetime
async def stream_chunks(): for i in range(0, 100): yield Chunk(message=f"This is chunk {i}", timestamp=datetime.now())
@app.get("/stream", openapi_extra={'x-streaming': True})def my_stream() -> Chunk: return StreamingResponse(stream_chunks(), media_type="application/json")
Consommation
Pour consommer un flux de réponses, utilisez le générateur API Connection qui fournira une méthode typée pour itérer sur les chunks.
Déploiement de votre FastAPI
Le générateur crée un construct CDK pour déployer votre API dans common/constructs
. Utilisez-le dans une application CDK :
import { MyApi } from ':my-scope/common-constructs';
export class ExampleStack extends Stack { constructor(scope: Construct, id: string) { // Ajoutez l'API à votre stack const api = new MyApi(this, 'MyApi'); }}
Ceci configure :
- Une fonction AWS Lambda exécutant votre application FastAPI
- Une API Gateway HTTP API comme déclencheur
- Les rôles IAM et permissions
- Un groupe de logs CloudWatch
- La configuration de tracing X-Ray
- Un namespace de métriques CloudWatch
Attribution d’accès
Utilisez la méthode grantInvokeAccess
pour donner accès à votre API :
api.grantInvokeAccess(myIdentityPool.authenticatedRole);
Développement local
Le générateur configure un serveur de développement local que vous pouvez lancer avec :
pnpm nx run my-api:serve
yarn nx run my-api:serve
npx nx run my-api:serve
bunx nx run my-api:serve
Ceci démarre un serveur FastAPI local avec :
- Rechargement automatique sur modifications
- Documentation interactive API sur
/docs
ou/redoc
- Schéma OpenAPI sur
/openapi.json
Invocation de votre FastAPI
Pour invoquer votre API depuis un site React, utilisez le générateur api-connection
.