Pour récupérer les couleurs dominantes d'une image à l'aide du client Vision API, nous pouvons utiliser la fonction de détection des propriétés de l'image fournie par l'API Google Vision. Cet outil puissant nous permet d'analyser et de comprendre le contenu visuel d'une image, notamment en identifiant les couleurs dominantes présentes.
La première étape consiste à configurer le client Vision API et à authentifier nos demandes. Une fois cela fait, nous pouvons envoyer une image à l’API pour analyse. L'API prend en charge divers formats d'image tels que JPEG, PNG et GIF.
Pour récupérer les couleurs dominantes, nous devons utiliser la fonctionnalité `imagePropertiesAnnotation` de l'API. Cette fonctionnalité nous fournit des informations sur les couleurs présentes dans l'image, y compris les couleurs dominantes. Les couleurs dominantes sont représentées par leurs valeurs RVB et sont classées en fonction de leur prévalence dans l'image.
Lors d'une requête à l'API, nous devons spécifier le paramètre `features` comme `IMAGE_PROPERTIES`. Cela indique à l'API que nous souhaitons extraire les propriétés de l'image, y compris les couleurs dominantes. Voici un exemple de la façon dont nous pouvons effectuer l'appel API à l'aide de Python :
python import base64 from google.cloud import vision def get_dominant_colors(image_path): client = vision.ImageAnnotatorClient() with open(image_path, 'rb') as image_file: content = image_file.read() image = vision.Image(content=content) features = [vision.Feature(type_=vision.Feature.Type.IMAGE_PROPERTIES)] response = client.annotate_image({ 'image': image, 'features': features }) colors = response.image_properties_annotation.dominant_colors.colors dominant_colors = [] for color_info in colors: color = color_info.color rgb = (color.red, color.green, color.blue) dominant_colors.append(rgb) return dominant_colors
Dans l'exemple ci-dessus, nous importons d'abord les bibliothèques nécessaires et authentifions le client Vision API. Ensuite, nous lisons le fichier image et créons un objet `Image` de l'API Vision avec le contenu de l'image. Ensuite, nous spécifions la fonctionnalité `IMAGE_PROPERTIES` et effectuons l'appel API à l'aide de la méthode `annotate_image`.
La réponse de l'API contient les couleurs dominantes dans le champ `image_properties_annotation`. Nous parcourons les couleurs et extrayons les valeurs RVB. Enfin, nous renvoyons la liste des couleurs dominantes.
Il est important de noter que les couleurs dominantes renvoyées par l'API sont basées sur la prévalence globale des couleurs dans l'image. Cela signifie que les couleurs renvoyées ne représentent pas nécessairement les éléments visuellement les plus visibles de l’image. Cependant, ils donnent une bonne indication de la palette de couleurs dominante.
Pour récupérer les couleurs dominantes d'une image à l'aide du client Vision API, nous devons utiliser la fonctionnalité `imagePropertiesAnnotation`. En effectuant un appel API avec les paramètres appropriés, nous pouvons obtenir les couleurs dominantes sous forme de valeurs RVB. Cette fonctionnalité peut être utile dans diverses applications, telles que la catégorisation d'images, l'analyse de contenu et la recherche visuelle.
D'autres questions et réponses récentes concernant API Google Vision EITC/AI/GVAPI:
- L'API Google Vision peut-elle être appliquée à la détection et à l'étiquetage d'objets avec la bibliothèque Pillow Python dans des vidéos plutôt que dans des images ?
- Comment implémenter le dessin de bordures d'objets autour des animaux dans des images et des vidéos et l'étiquetage de ces bordures avec des noms d'animaux particuliers ?
- Quelles sont les catégories prédéfinies pour la reconnaissance d'objets dans l'API Google Vision ?
- L'API Google Vision permet-elle la reconnaissance faciale ?
- Comment le texte affiché peut-il être ajouté à l'image lors du dessin des bordures d'un objet à l'aide de la fonction « draw_vertices » ?
- Quels sont les paramètres de la méthode « draw.line » dans le code fourni, et comment sont-ils utilisés pour tracer des lignes entre les valeurs des sommets ?
- Comment la bibliothèque d'oreillers peut-elle être utilisée pour dessiner des bordures d'objets en Python ?
- Quel est le but de la fonction « draw_vertices » dans le code fourni ?
- Comment l'API Google Vision peut-elle aider à comprendre les formes et les objets d'une image ?
- Comment les utilisateurs peuvent-ils explorer les images visuellement similaires recommandées par l'API ?
Afficher plus de questions et de réponses dans l'API Google Vision EITC/AI/GVAPI