Pour extraire toutes les annotations d'objets de la réponse de l'API dans le domaine de l'Intelligence Artificielle – API Google Vision – Compréhension avancée des images – Détection d'objets, vous pouvez utiliser le format de réponse fourni par l'API, qui comprend une liste d'objets détectés ainsi que leurs correspondants. cadres de délimitation et scores de confiance. En analysant cette réponse, vous pouvez extraire les annotations d'objet souhaitées.
La réponse de l'API consiste généralement en un objet JSON contenant divers champs, dont le champ « localizedObjectAnnotations », qui contient les objets détectés. Chaque annotation d'objet comprend des informations telles que le nom de l'objet, les coordonnées de son cadre de délimitation et un score de confiance indiquant la confiance de l'API dans la détection.
Pour extraire les annotations d'objet, vous pouvez suivre ces étapes :
1. Analysez la réponse de l'API : commencez par analyser la réponse JSON reçue de l'API. Cela peut être fait à l'aide d'une bibliothèque d'analyse JSON ou de fonctions intégrées fournies par votre langage de programmation.
2. Accédez au champ "localizedObjectAnnotations" : Une fois la réponse analysée, accédez au champ "localizedObjectAnnotations", qui contient les objets détectés. Ce champ est généralement un tableau d'annotations d'objets.
3. Parcourez les annotations d'objet : parcourez chaque annotation d'objet du tableau. Chaque annotation représente un objet détecté dans l'image.
4. Extraire les informations pertinentes : extrayez les informations pertinentes de chaque annotation d'objet, telles que le nom de l'objet, les coordonnées du cadre de délimitation et le score de confiance. Ces détails sont accessibles sous forme de champs distincts dans chaque annotation d'objet.
5. Stocker ou traiter les informations extraites : selon vos besoins, vous pouvez stocker les informations extraites dans une structure de données ou les traiter davantage à des fins d'analyse ou à d'autres fins. Par exemple, vous souhaiterez peut-être stocker les noms d'objets et leurs coordonnées de cadre de délimitation correspondantes dans une base de données ou les utiliser pour d'autres tâches de compréhension d'image.
Voici un exemple simplifié pour illustrer le processus d'extraction :
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"milieu": "/m/01g317",
"nom": "chat",
"score": 0.89271355,
"boundingPoly": {
"Vertices normalisés": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"milieu": "/m/04rky",
"nom": "chien",
"score": 0.8132468,
"boundingPoly": {
"Vertices normalisés": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
] }
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
Dans cet exemple, nous supposons une réponse JSON contenant deux objets détectés : un chat et un chien. Le code analyse la réponse, accède au champ « localizedObjectAnnotations », parcourt chaque annotation d'objet et extrait le nom de l'objet, les coordonnées du cadre de délimitation et le score de confiance. Enfin, les informations extraites sont imprimées, mais vous pouvez modifier le code en fonction de vos besoins spécifiques.
En suivant ces étapes, vous pouvez extraire efficacement toutes les annotations d'objets de la réponse de l'API dans le domaine de l'Intelligence Artificielle – API Google Vision – Compréhension avancée des images – Détection d'objets.
D'autres questions et réponses récentes concernant Compréhension avancée des images:
- Quelles sont les catégories prédéfinies pour la reconnaissance d'objets dans l'API Google Vision ?
- Quelle est l’approche recommandée pour utiliser la fonctionnalité de détection de recherche sécurisée en combinaison avec d’autres techniques de modération ?
- Comment pouvons-nous accéder et afficher les valeurs de vraisemblance pour chaque catégorie dans l'annotation de recherche sécurisée ?
- Comment pouvons-nous obtenir l'annotation de recherche sécurisée à l'aide de l'API Google Vision en Python ?
- Quelles sont les cinq catégories incluses dans la fonction de détection de recherche sécurisée ?
- Comment la fonctionnalité de recherche sécurisée de l'API Google Vision détecte-t-elle le contenu explicite dans les images ?
- Comment identifier visuellement et mettre en évidence les objets détectés dans une image à l'aide de la bibliothèque d'oreillers ?
- Comment pouvons-nous organiser les informations sur les objets extraits dans un format tabulaire à l'aide du bloc de données pandas ?
- Quels bibliothèques et langage de programmation sont utilisés pour démontrer les fonctionnalités de l'API Google Vision ?
- Comment l'API Google Vision effectue-t-elle la détection et la localisation d'objets dans les images ?
Afficher plus de questions et de réponses dans Compréhension avancée des images