Développement

Contenu

Développement#

Général#

GeoNature 1, créé en 2010, a été développé par Gil Deluermoz avec PHP/Symfony/ExtJS.

GeoNature 2 est une refonte initiée en 2017 par les parcs nationaux français en Python/Flask/Angular.

Mainteneurs actuels :

  • Jacques FIZE (PnEcrins)

  • Pierre NARCISI (Patrinat)

  • Vincent CAUCHOIS (Patrinat)

  • Élie BOUTTIER (PnEcrins)

  • Théo LECHEMIA (PnEcrins)

  • Amandine SAHL (PnCevennes)

  • Camille MONCHICOURT (PnEcrins)

_images/geonature-techno.png

API#

GeoNature utilise :

  • l’API de TaxHub (recherche taxon, règne et groupe d’un taxon…), intégrée à GeoNature depuis sa version 2.15

  • l’API du sous-module Nomenclatures (typologies et listes déroulantes)

  • l’API du sous-module d’authentification de UsersHub (login/logout, récupération du CRUVED d’un utilisateur)

  • l’API de GeoNature (get, post, update des données des différents modules, métadonnées, intersections géographiques, exports…)

_images/api_services.png

Liste des routes#

Vous pouvez obtenir la liste des routes de GeoNature avec la commande suivante :

$ geonature routes

Documentation des routes#

Génération automatique actuellement hors-service :-(

Pratiques et règles de developpement#

Afin de partager des règles communes de développement et faciliter l’intégration de nouveau code, veuillez lire les recommandations et bonnes pratiques recommandées pour contribuer au projet GeoNature.

Git#

  • Assurez-vous d’avoir récupéré les dépendances dans les sous-modules git : git submodule init && git submodule update

  • Après un git pull, il faut mettre à jour les sous-modules : git submodule update

  • Ne jamais faire de commit dans la branche master mais dans la branche develop ou idéalement dans une branche dédiée à la fonctionnalité (feature branch)

  • Faire des pull requests vers la branche develop

  • Faire des git pull avant chaque développement et avant chaque commit

  • Les messages des commits font référence à un ticket ou le ferment (ref #12 ou fixes #23)

  • Les messages des commits sont en anglais (dans la mesure du possible)

  • Privilégier les rebases afin de conserver un historique linéaire

  • Privilégier l’amendement (git commit --amend ou git commit --fixup) des commits existants lorsque vous portez des corrections à votre PR, en particulier pour l’application du style.

Backend#

"python.formatting.blackArgs": [
  "--line-length",
  "100"
]
  • Privilégier la snake_case pour les variables, CamelCase pour les classes.

BDD#

  • Le noms des tables est préfixé par « t_ » pour une table de contenu, de « bib_ » pour les tables de « dictionnaires » et de « cor_ » pour les tables de correspondance (relations N-N)

  • Les schémas du coeur de GeoNature sont préfixés de « gn_ »

  • Les schémas des protocoles ou modules GeoNature sont préfixés de « pr_ »

  • Ne rien écrire dans le schéma public

Modèle Python#

Les conventions précédentes concernent uniquement la BDD. Pour les modèles Python, on fera attention à :

  • Nommer les modèles sans le préfixe « t_ », et à les écrire au singulier. Exemple : class Observation:.

  • Ne pas répeter le nom des tables dans les noms des colonnes.

Typescript#

  • Documenter les fonctions et classes grâce au JSDoc en français (https://jsdoc.app/)

  • Les commentaires dans le codes doivent être en anglais (ne pas s’empêcher de mettre un commentaire en français sur une partie du code complexe !)

  • Les messages renvoyés aux utilisateurs sont en français

  • Installer les outils de devéloppement : npm install --only=dev

  • Utiliser prettier comme formateur de texte et activer l’autoformatage dans son éditeur de texte (VsCode dispose d’une extension Prettier : prettier/prettier-vscode) Pour lancer manuellement prettier depuis le dossier frontend :

nvm use
npm run format
  • La longueur maximale pour une ligne de code est 100 caractères.

Angular#

  • Suivre les recommandations définies par le styleguide Angular: https://angular.io/guide/styleguide. C’est une ressources très fournie en cas de question sur les pratiques de développement (principe de séparation des principes, organisation des services et des composants)

  • On privilégiera l’utilisation des reactive forms pour la construction des formulaires (https://angular.io/guide/reactive-forms). Ce sont des formulaires pilotés par le code, ce qui facilite la lisibilité et le contrôle de ceux-ci.

  • Pour l’ensemble des composants cartographiques et des formulaires (taxonomie, nomenclatures…), il est conseillé d’utiliser les composants présents dans le module “GN2CommonModule”.

HTML#

  • La longueur maximale pour une ligne de code est 100 caractères.

  • Revenir à la ligne avant et après le contenue d’une balise.

  • Lorsqu’il y a plus d’un attribut sur une balise, revenir à la ligne, aligner les attributs et aller a la ligne pour fermer la balise :

<button
  mat-raised-button
  color="primary"
  class="btn-action hard-shadow uppercase ml-3"
  data-toggle="collapse"
  data-target="#collapseAvance"
>
  Filtrer
</button>
  • VSCODE fournit un formatteur de HTML par défaut (Dans les options de VsCode, tapez « wrap attributes » et sélectionner « force-expand-multiline »)

  • En plus du TypeScript/Javascript, Prettier permet de formater le HTML et le SCSS (Se référer à la configuration N’oubliez pas les Typescript.)

Style et ergonomie#

  • Boutons : On utilise les boutons d’Angular Material (https://material.angular.io/components/button/overview).

    • mat-raised-button pour les boutons contenant du texte

    • mat-fab ou mat-mini-fab pour les boutons d’actions avec seulement une icone

  • Couleur des boutons :

    • Action : primary

    • Validation: vert (n’existant pas dans Material : utiliser la classe button-success)

    • Suppression: warn

    • Navigation: basic

  • Librairie d’icones :

  • Formulaire :

  • Système de grille et responsive :

    • Utiliser le système de grille de Bootstrap pour assurer le responsive design sur l’application. On ne vise pas l’utilisation sur mobile, mais à minima sur ordinateur portable de petite taille.

Passer en mode développement#

Cette section documente comment passer en mode développement une installation de GeoNature initialement faite en mode production.

Récupération des sources#

Si vous avez téléchargé GeoNature zippé (via la procédure d’installation globale install_all.sh ou en suivant la documentation d’installation standalone), il est nécessaire de rattacher votre répertoire au dépôt GitHub afin de pouvoir télécharger les dernières avancées du coeur en git pull. Pour cela, suivez les commandes suivantes en vous placant à la racine du répertoire de GeoNature.

# Se créer un répertoire .git
mkdir .git
# Récupérer l'historique du dépôt
git clone --depth=2 --bare https://github.com/PnX-SI/GeoNature.git .git
# Initialiser un dépôt git à partir de l'historique téléchargé
git init
# Vérifier que le dépôt distant et le contenu local sont synchronisés
git pull
# Reset sur HEAD pour mettre à jour les status
git reset HEAD
# -> vous êtes à jour sur la branche master
# Cloner les sous-modules pour récupérer les dépendances
git submodule init
git submodule update

Installation du venv en dev#

Il est nécessaire d’installer les dépendances (sous-modules Git présent dans backend/dependencies) en mode éditable afin de travailler avec la dernière version de celles-ci.

$ cd backend
$ source venv/bin/activate
$ pip install -e .. -r requirements-dev.txt

Configuration des URLs de développement#

Il est nécessaire de changer la configuration du fichier config/geonature_config.toml pour utiliser les adresses suivantes :

URL_APPLICATION = 'http://127.0.0.1:4200'
API_ENDPOINT = 'http://127.0.0.1:8000'

N’oubliez pas les actions à effectuer après modification de la configuration.

Autres extensions en développement#

Il n’est pas forcémment utile de passer toutes les extensions en mode dévelomment. Pour plus d’informations, référez-vous aux documentations dédiées :

Debugger avec un navigateur#

L’extension Angular DevTools permettra de debugger l’application dans la console du navigateur. Pour utiliser l’extension vous devez l’installer et passer obligatoirement en mode development.

Développement Backend#

Démarrage du serveur de dev backend#

La commande geonature fournit la sous-commande dev-back pour lancer un serveur de test :

(venv)$ geonature dev-back

L’API est alors accessible à l’adresse http://127.0.0.1:8000.

Base de données avec Flask-SQLAlchemy#

L’intégration de la base de données à GeoNature repose sur la bibliothèque Flask-SQLAlchemy.

Celle-ci fournit un objet db à importer comme ceci : from geonature.utils.env import db

Cet objet permet d’accéder à la session SQLAlchemy ainsi :

from geonature.utils.env import db
obj = db.session.query(MyModel).get(1)

Mais il fournit une base déclarative db.Model permettant d’interroger encore plus simplement les modèles via leur attribut query :

from geonature.utils.env import db
class MyModel(db.Model):
    …

obj = MyModel.query.get(1)

L’attribut query fournit plusieurs fonctions très utiles dont la fonction get_or_404 :

obj = MyModel.query.get_or_404(1)

Ceci est typiquement la première ligne de toutes les routes travaillant sur une instance (route de type get/update/delete).

Fonctions de filtrages#

L’attribut query est une instance de la classe flask_sqlalchemy.BaseQuery qui peut être surchargée afin de définir de nouvelles fonctions de filtrage.

On pourra ainsi implémenter une fonction pour filtrer les objets auxquels l’utilisateur a accès, ou encore pour implémenter des filtres de recherche.

from flask import g
import sqlalchemy as sa
from flask_sqlalchemy import BaseQuery
from geonature.core.gn_permissions import login_required

class MyModelQuery(BaseQuery):
    def filter_by_scope(self, scope):
        if scope == 0:
            self = self.filter(sa.false())
        elif scope in (1, 2):
            filters = [ MyModel.owner==g.current_user ]
            if scope == 2 and g.current_user.id_organism is not None:
                filters.append(MyModel.owner.any(id_organism=g.current_user.id_organism)
            self = self.filter(sa.or_(*filters))
        return self

class MyModel(db.Model):
    query_class = MyModelQuery


@login_required
def list_my_model():
    obj_list = MyModel.query.filter_by_scope(2).all()

Serialisation des modèles avec Marshmallow#

La bibliothèque Marshmallow fournit des outils de sérialisation et desérialisation.

Elle est intégrée à GeoNature par la bibliothèque Flask-Marshmallow qui fournit l’objet ma à importer comme ceci : from geonature.utils.env import ma.

Cette bibliothèque ajoute notablement une méthode jsonify aux schémas.

Les schémas Marshmallow peuvent être facilement créés à partir des modèles SQLAlchemy grâce à la bibliothèque Marshmallow-SQLAlchemy.

from geonature.utils.env import ma

class MyModelSchema(ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True

Gestion des relationships#

L’option include_fk=True concerne les champs de type ForeignKey, mais pas les relationships en elles-mêmes. Pour ces dernières, il est nécessaire d’ajouter manuellement des champs Nested à notre schéma :

class ParentModelSchema(ma.SQLAlchemyAutoSchema):
    class Meta:
        model = ParentModel
        include_fk = True

    childs = ma.Nested("ChildModelSchema", many=True)

class ChildModelSchema(ma.SQLAlchemyAutoSchema):
    class Meta:
        model = ChildModel
        include_fk = True

    parent = ma.Nested(ParentModelSchema)

Attention, la sérialisation d’un objet avec un tel schéma va provoquer une récursion infinie, le schéma parent incluant le schéma enfant, et le schéma enfant incluant le schéma parent. Il est donc nécessaire de restreindre les champs à inclure dans la sérialisation lors de la création du schéma :

  • avec l’argument only :

    parent_schema = ParentModelSchema(only=['pk', 'childs.pk'])
    

    L’utilisation de only a l’inconvénient d’être lourde puisqu’il faut spécifier l’ensemble les champs à sérialiser. De plus, l’ajout d’une nouvelle colonne au modèle nécessite de la rajouter partout où le schéma est utilisé.

  • avec l’argument exclude :

    parent_schema = ParentModelSchema(exclude=['childs.parent'])
    

    Cependant, l’utilisation de exclude est hautement problématique ! En effet, l’ajout d’un nouveau champs Nested au schéma nécessiterait de le rajouter dans la liste des exclusions partout où le schéma est utilisé (que ça soit pour éviter une récursion infinie, d’alourdir une réponse JSON avec des données inutiles ou pour éviter un problème n+1 - voir section dédiée).

La bibliothèque Utils-Flask-SQLAlchemy fournit une classe utilitaire SmartRelationshipsMixin permettant d’exclure par défaut les champs Nested. Pour demander la sérialisation d’un sous-schéma, il faut le spécifier avec only, mais sans nécessité de spécifier tous les champs basiques (non Nested).

from utils_flask_sqla.schema import SmartRelationshipsMixin

class ParentModelSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = ParentModel
        include_fk = True

    childs = ma.Nested("ChildModelSchema", many=True)

class ChildModelSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = ChildModel
        include_fk = True

    parent = ma.Nested(ParentModelSchema)

Modèles avec nomenclatures#

Le convertisseur de modèle NomenclaturesConverter permet d’automatiquement ajouter un champs Nested(NomenclatureSchema) pour les relationships vers une nomenclature.

from pypnnomenclature.models import TNomenclatures as Nomenclature
from pypnnomenclature.utils import NomenclaturesConverter

class MyModel(db.Model):
    id_nomenclature_foo = db.Column(db.Integer, ForeignKey(Nomenclature.id_nomenclature))
    nomenclature_foo = relationships(Nomenclature, foreign_keys=[id_nomenclature_foo])

class MyModelSchema(ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True
        model_converter = NomenclaturesConverter

    # automatically added: nomenclature_foo = ma.Nested(NomenclatureSchema)

Le mixin NomenclaturesMixin permet de définir une propriété __nomenclatures__ sur un modèle contenant la liste des champs à nomenclature. Cette propriété peut être utilisé pour facilement joindre et inclure lors de la sérialisation les champs à nomenclatures.

from pypnnomenclature.models import TNomenclatures as Nomenclature
from pypnnomenclature.utils import NomenclaturesMixin

class MyModel(NomenclaturesMixin, db.Model):
    id_nomenclature_foo = db.Column(db.Integer, ForeignKey(Nomenclature.id_nomenclature))
    nomenclature_foo = relationships(Nomenclature, foreign_keys=[id_nomenclature_foo])

# joinedload all nomenclatures
q = MyModel.query.options(*[joinedload(n) for n in MyModel.__nomenclatures__])
# include all nomenclatures to serialization
schema = MyModelSchema(only=MyModel.__nomenclatures__).dump(q.all())

Modèles géographiques#

En utilisant GeoAlchemyAutoSchema à la place de SQLAlchemyAutoSchema, il est facile de créer des schémas pour des modèles possédant des colonnes géométriques :

  • Utilisation automatique de model_converter = GeoModelConverter afin de convertir les colonnes géométriques

  • Exclusion par défaut des colonnes géométriques de la sérialisation

  • Possibilité de générer du geojson en initialisant le schéma avec as_geojson=True

Les options suivantes sont disponible (à rajouter comme propriété de la classe Méta, ou comme paramètre à la création du schéma) :

  • feature_id : Colonne à utiliser pour remplire l’id des features geojson. Typiquement la clé primaire du modèle. Exclue si non spécifié.

  • feature_geometry : Colonne à utiliser pour définir la geometry des features geojson. Déterminée automatiquement lorsque le modèle possède une unique colonne géométrique.

class MyModel(db.Model):
    pk = db.Column(Integer, primary_key=True)
    geom = db.Column(Geometry("GEOMETRY"))

class MyModelSchema(GeoAlchemyAutoSchema):
    class Meta:
        model = MyModel
        feature_id = "pk"  # optionnel
        feature_geometry = "geom"  # automatiquement déterminé
>>> o = MyModel(pk=1, geom=from_shape(Point(6, 10)))
>>> MyModelSchema().dump(o)
{"pk": 1}  # la colonne géométrique est automatiquement exclue
>>> MyModelSchema(as_geojson=True).dump(o)
{
    "type": "Feature",
    "id": 1,
    "geometry": {"type": "Point", "coordinates": [6, 10]},
    "properties": {"pk": 1}
}

La sortie sera une FeatureCollection lorsque le schéma est utilisé avec many=True.

Les schémas géographiques peuvent également être utilisé pour parser du geojson (Feature ou FeatureCollection).

Modèles géographiques avec nomenclatures#

Si vous avez un modèle possédant à la fois des relations vers des nomenclatures et des colonnes géométriques, vous pouvez devoir créer votre propre convertisseur de modèle héritant à la fois de NomenclaturesConverter et de GeoModelConverter :

class NomenclaturesGeoModelConverter(NomenclaturesConverter, GeoModelConverter):
    pass

class MyModelSchema(GeoAlchemyAutoSchema):
    class Meta:
        model = MyModel
        model_converter = NomenclaturesGeoModelConverter

Modèles à permission#

Le mixin CruvedSchemaMixin permet d’ajouter un champs cruved à la sérialisation qui contiendra un dictionnaire avec en clé les actions du cruved et en valeur des booléens indiquant si l’action est disponible.

Pour l’utiliser, il faut :

  • Définir une propriété __module_code__ (et optionnellement une propriété __object_code__) au niveau du schéma Marshmallow. Ces propriétés sont passées en argument à la fonction get_scopes_by_action.

  • Le modèle doit définir une fonction has_instance_permission(scope) prenant en argument une portée (0, 1, 2 ou 3) et renvoyant un booléen.

Par défaut, pour des raisons de performance, le cruved est exclu de la sérialisation. Il faut donc demander sa sérialisation lors de la création du schéma avec only=["+cruved"]. Le préfixe + permet de spécifier que l’on souhaite rajouter le cruved aux champs à sérialiser (et non que l’on souhaite sérialiser uniquement le cruved).

from geonature.utils.schema import CruvedSchemaMixin

class MyModel(db.Model):
    # …
    owner = db.relationship(User)

    def has_instance_permission(self, scope):
        return scope == 3 or (scope in (1, 2) and self.owner == g.current_user)

class MyModelSchema(CruvedSchemaMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True

    __module_code__ = "MODULE_CODE"

    # automatically added: cruved = fields.Method("get_cruved", metadata={"exclude": True})
>>> o = MyModel.query.first()
>>> MyModelSchema(only=["+cruved"]).dump(o)
{"pk": 42, "cruved": {"C": False, "R": True, "U": True, "V": False, "E": False}}

Création d’un objet#

L’utilisation de load_instance=True permet, lors de l’appelle de la fonction load, de directement récupérer un objet pouvant être ajouté à la session SQLAlchemy.

class MyModelSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True
        load_instance = True

o = MyModelSchema().load(request.json)
db.session.add(o)
db.session.commit()
Gestion des relationships#
Many-to-One#

Exemple d’une relation vers une nomenclature :

class MyModel(db.Model):
    id_nomenclature_foo = db.Column(db.Integer, ForeignKey(Nomenclature.id_nomenclature))
    nomenclature_foo = relationships(Nomenclature, foreign_keys=[id_nomenclature_foo])

class MyModelSchema(ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True
        model_converter = NomenclaturesConverter

# Le front spécifie directement la ForeignKey et non la relationship :
o = MyModelSchema().load({"id_nomenclature_foo": 42})
Many-to-Many#

Exemple d’une relation vers plusieurs utilisateurs :

cor_mymodel_user = db.Table(...)

class MyModel(db.Model):
    owners = relationship(User, secondary=cor_mymodel_user)

class MyModelSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True

# Le front spécifie la ForeignKey, la relationship est ignoré :
o = MyModelSchema(only=["owners.id_role"]).load({
    "owners": [{"id_role": 42}, {"id_role": 43}]
})

Avertissement

Prendre garde à bien spécifier owners.id_role et non simplement owners, sans quoi il devient possible d’utiliser votre route pour créer des utilisateurs !

One-to-Many#

Exemple d’une relation vers des modèles enfants, qui sont rattaché à un unique parent :

class Child(db.Model):
    id_parent = db.Column(Integer, ForeignKey(Parent.id))
    parent = relationship(Parent, back_populates="childs")

class Parent(db.Model):
    id = db.Column(Integer, primary_key=True)
    childs = relationship(Child, cascade="all, delete-orphan", back_populates="parent")

class ChildSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = MyModel
        include_fk = True
        load_instance = True

    parent = Nested(ParentSchema)

class ParentSchema(SmartRelationshipsMixin, ma.SQLAlchemyAutoSchema):
    class Meta:
        model = ParentModel
        include_fk = True
        load_instance = True

    childs = Nested(ChildSchema, many=True)

    @validates_schema
    def validate_childs(self, data, **kwargs):
        """
        Ensure this schema is not leveraged to retrieve childs from other parent
        """
        for child in data["childs"]:
            if child.id_parent is not None and data.get("id") != child.id_parent:
                raise ValidationError(
                    "Child does not belong to this parent.", field_name="childs"
                )

o = ParentSchema(only=["childs"], dump_only=["childs.id_parent"]).load({
    "pk": 1,
    "childs": [
        {"pk": 1},  # validate_childs checks child 1 belongs to parent 1
    ]
})

Avertissement

Prendre garde à ajouter dump_only=["childs.id_parent"], sans quoi il devient possible de créer des objets Child appartenant à un autre Parent !

Avertissement

Prendre garde à ajouter une validation sur le modèle parent de l’appartenance des objets Child, sans quoi il devient possible de rattacher à un parent des objets Child appartenant à un autre parent !

Avertissement

Le frontend doit systématiquement listé l’ensemble des childs, sans quoi ceux-ci seront supprimé.

Serialisation des modèles avec le décorateur @serializable#

Note

L’utilisation des schémas Marshmallow est probablement plus performante.

La bibliothèque maison Utils-Flask-SQLAlchemy fournit le décorateur @serializable qui ajoute une méthode as_dict sur les modèles décorés :

from utils_flask_sqla.serializers import serializable

@serializable
class MyModel(db.Model):
    …


obj = MyModel(…)
obj.as_dict()

La méthode as_dict fournit les arguments fields et exclude permettant de spécifier les champs que l’on souhaite sérialiser.

Par défaut, seules les champs qui ne sont pas des relationshisp sont sérialisées (fonctionnalité similaire à celle fournit par SmartRelationshipsMixin pour Marshmallow).

Les relations que l’on souhaite voir sérialisées doivent être explicitement déclarées via l’argument fields.

L’argument fields supporte la « notation à point » permettant de préciser les champs d’un modèle en relation :

child.as_dict(fields=['parent.pk'])

Les tests unitaires fournissent un ensemble d’exemples d’usage du décorateur.

La fonction as_dict prenait autrefois en argument les paramètres recursif et depth qui sont tous les deux obsolètes. Ces derniers ont différents problèmes :

  • récursion infinie (contournée par un hack qui ne résoud pas tous les problèmes et qu’il serait souhaitable de voir disparaitre)

  • augmentation non prévue des données sérialisées lors de l’ajout d’une nouvelle relationship

  • problème n+1 (voir section dédiée)

Modèles géographiques#

La bibliothèque maison Utils-Flask-SQLAlchemy-Geo fournit des décorateurs supplémentaires pour la sérialisation des modèles contenant des champs géographiques.

  • utils_flask_sqla_geo.serializers.geoserializable

    Décorateur pour les modèles SQLA : Ajoute une méthode as_geofeature qui retourne un dictionnaire serialisable sous forme de Feature geojson.

    Fichier définition modèle

    from geonature.utils.env import DB
    from utils_flask_sqla_geo.serializers import geoserializable
    
    
    @geoserializable
    class MyModel(DB.Model):
        __tablename__ = 'bla'
        ...
    

    Fichier utilisation modèle

    instance = DB.session.query(MyModel).get(1)
    result = instance.as_geofeature()
    
  • utils_flask_sqla_geo.serializers.shapeserializable

    Décorateur pour les modèles SQLA :

    • Ajoute une méthode as_list qui retourne l’objet sous forme de tableau (utilisé pour créer des shapefiles)

    • Ajoute une méthode de classe to_shape qui crée des shapefiles à partir des données passées en paramètre

    Fichier définition modèle

    from geonature.utils.env import DB
    from utils_flask_sqla_geo.serializers import shapeserializable
    
    
    @shapeserializable
    class MyModel(DB.Model):
        __tablename__ = 'bla'
        ...
    

    Fichier utilisation modèle :

    # utilisation de as_shape()
    data = DB.session.query(MyShapeserializableClass).all()
    MyShapeserializableClass.as_shape(
        geom_col='geom_4326',
        srid=4326,
        data=data,
        dir_path=str(ROOT_DIR / 'backend/static/shapefiles'),
        file_name=file_name,
    )
    
  • utils_flask_sqla_geo.utilsgeometry.FionaShapeService

    Classe utilitaire pour créer des shapefiles.

    La classe contient 3 méthodes de classe :

  • FionaShapeService.create_shapes_struct() : crée la structure de 3 shapefiles (point, ligne, polygone) à partir des colonens et de la geométrie passée en paramètre

  • FionaShapeService.create_feature() : ajoute un enregistrement aux shapefiles

  • FionaShapeService.save_and_zip_shapefiles() : sauvegarde et zip les shapefiles qui ont au moins un enregistrement:

    data = DB.session.query(MySQLAModel).all()
    
    for d in data:
            FionaShapeService.create_shapes_struct(
                    db_cols=db_cols,
                    srid=srid,
                    dir_path=dir_path,
                    file_name=file_name,
                    col_mapping=current_app.config['SYNTHESE']['EXPORT_COLUMNS']
            )
    FionaShapeService.create_feature(row_as_dict, geom)
            FionaShapeService.save_and_zip_shapefiles()
    

Réponses#

Voici quelques conseils sur l’envoi de réponse dans vos routes.

  • Privilégier l’envoi du modèle sérialisé (vues de type create/update), ou d’une liste de modèles sérialisés (vues de type list), plutôt que des structures de données non conventionnelles.

def get_foo(pk):
    foo = Foo.query.get_or_404(pk)
    return jsonify(foo.as_dict(fields=...))

def get_foo(pk):
    foo = Foo.query.get_or_404(pk)
    return FooSchema(only=...).jsonify(foo)

def list_foo():
    q = Foo.query.filter(...)
    return jsonify([foo.as_dict(fields=...) for foo in q.all()])

def list_foo():
    q = Foo.query.filter(...)
    return FooSchema(only=...).jsonify(q.all(), many=True)
  • Pour les listes vides, ne pas renvoyer le code d’erreur 404 mais une liste vide !

return jsonify([])
  • Renvoyer une liste et sa longueur dans une structure de données non conventionnelle est strictement inutile, il est très simple d’accéder à la longueur de la liste en javascript via l’attribut length.

  • Traitement des erreurs : utiliser les exceptions prévues à cet effet :

from werkzeug.exceptions import Fobridden, Badrequest, NotFound

def restricted_action(pk):
    if not is_allowed():
        raise Forbidden
  • Penser à utiliser get_or_404 plutôt que de lancer une exception NotFound

  • Si l’utilisateur n’a pas le droit d’effectuer une action, utiliser l’exception Forbidden (code HTTP 403), et non l’exception Unauthorized (code HTTP 401), cette dernière étant réservée aux utilisateurs non authentifiés.

  • Vérifier la validité des données fournies par l’utilisateur (request.json ou request.args) et lever une exception BadRequest si celles-ci ne sont pas valides (l’utilisateur ne doit pas être en mesure de déclencher une erreur 500 en fournissant une string plutôt qu’un int par exemple !).

    • Marshmallow peut servir à cela

      from marshmallow import Schema, fields, ValidationError
      def my_route():
          class RequestSchema(Schema):
              value = fields.Float()
          try:
              data = RequestSchema().load(request.json)
          except ValidationError as error:
              raise BadRequest(error.messages)
      
    • Cela peut être fait avec jsonschema :

    from from jsonschema import validate as validate_json, ValidationError
    
    def my_route():
        request_schema = {
            "type": "object",
            "properties": {
                "value": { "type": "number", },
            },
            "minProperties": 1,
            "additionalProperties": False,
        }
        try:
            validate_json(request.json, request_schema)
        except ValidationError as err:
            raise BadRequest(err.message)
    
  • Pour les réponses vides (exemple : route de type delete), on pourra utiliser le code de retour 204 :

    return '', 204
    

    Lorsque par exemple une action est traitée mais aucun résultat n’est à renvoyer, inutile d’envoyer une réponse « OK ». C’est l’envoi d’une réponse HTTP avec un code égale à 400 ou supérieur qui entrainera le traitement d’une erreur côté frontend, plutôt que de se fonder sur le contenu d’une réponse non normalisée.

Le décorateur @json_resp#

Historiquement, beaucoup de vues sont décorées avec le décorateur @json_resp.

Celui-ci apparait aujourd’hui superflu par rapport à l’usage directement de la fonction jsonify fournie par Flask.

  • utils_flask_sqla_geo.serializers.json_resp

    Décorateur pour les routes : les données renvoyées par la route sont automatiquement serialisées en json (ou geojson selon la structure des données).

    S’insère entre le décorateur de route flask et la signature de fonction

    Fichier routes

    from flask import Blueprint
    from utils_flask_sqla.response import json_resp
    
    blueprint = Blueprint(__name__)
    
    @blueprint.route('/myview')
    @json_resp
    def my_view():
        return {'result': 'OK'}
    
    
    @blueprint.route('/myerrview')
    @json_resp
    def my_err_view():
        return {'result': 'Not OK'}, 400
    

Problème « n+1 »#

Le problème « n+1 » est un anti-pattern courant des routes de type « liste » (par exemple, récupération de la liste des cadres d’acquisition).

En effet, on souhaite par exemple afficher la liste des cadres d’acquisitions, et pour chacun d’entre eux, la liste des jeux de données :

af_list = AcquisitionFramwork.query.all()

# with Marshmallow (and SmartRelationshipsMixin)
return AcquisitionFrameworkSchema(only=['datasets']).jsonify(af_list, many=True)

# with @serializable
return jsonify([ af.as_dict(fields=['datasets']) for af in af_list])

Ainsi, lors de la sérialisation de chaque AF, on demande à sérialiser l’attribut datasets, qui est une relationships vers la liste des DS associés :

class AcquisitionFramework(db.Model)
    datasets = db.relationships(Dataset, uselist=True)

Sans précision, la stratégie de chargement de la relation datasets est select, c’est-à-dire que l’accès à l’attribut datasets d’un AF provoque une nouvelle requête select afin de récupérer la liste des DS concernés.

Ceci est généralement peu grave lorsque l’on manipule un unique objet, mais dans le cas d’une liste d’objet, cela génère 1+n requêtes SQL : une pour récupérer la liste des AF, puis une lors de la sérialisation de chaque AF pour récupérer les DS de ce dernier.

Cela devient alors un problème de performance notable !

Afin de résoudre ce problème, il nous faut joindre les DS à la requête de récupération des AF.

Pour cela, plusieurs solutions :

  • Le spécifier dans la relationship :

    class AcquisitionFramework(db.Model)
        datasets = db.relationships(Dataset, uselist=True, lazy='joined')
    

    Cependant, cette stratégie s’appliquera (sauf contre-ordre) dans tous les cas, même lorsque les DS ne sont pas nécessaires, alourdissant potentiellement certaines requêtes qui n’en ont pas usage.

  • Le spécifier au moment où la requête est effectuée :

    from sqlalchemy.orm import joinedload
    
    af_list = AcquisitionFramework.query.options(joinedload('datasets')).all()
    

Il est également possible de joindre les relations d’une relation, par exemple le créateur des jeux de données :

af_list = (
    AcquisitionFramework.query
    .options(
        joinedload('datasets').options(
            joinedload('creator'),
        ),
    )
    .all()
)

Afin d’être sûr d’avoir joint toutes les relations nécessaires, il est possible d’utiliser la stratégie raise par défaut, ce qui va provoquer le lancement d’une exception lors de l’accès à un attribut non pré-chargé, nous incitant à le joindre également :

from sqlalchemy.orm import raiseload, joinedload

af_list = (
    AcquisitionFramework.query
    .options(
        raiseload('*'),
        joinedload('datasets'),
    )
    .all()
)

Pour toutes les requêtes récupérant une liste d’objet, l’utilisation de la stratégie raise par défaut est grandement encouragée afin de ne pas tomber dans cet anti-pattern.

La méthode as_dict du décorateur @serializable accepte l’argument unloaded='raise' ou unloaded='warn' pour un résultat similaire (ou un simple warning).

L’utilisation de raiseload, appartenant au cœur de SQLAlchemy, reste à privilégier.

Export des données#

TODO

Utilisation de la configuration#

La configuration globale de l’application est controlée par le fichier config/geonature_config.toml qui contient un nombre limité de paramètres. Il est possible d’utiliser un autre fichier de configuration en spécifiant un autre chemin d’accès dans la variable d’environnement GEONATURE_CONFIG_FILE.

Il est également possible de définir des paramètres de configuration par variable d’environnement en préfixant le nom du paramètre par GEONATURE_ (e.g. GEONATURE_SQLALCHEMY_DATABASE_URI). Cette méthode permet cependant de passer uniquement des valeurs textuelles.

Les paramètres de configuration sont validés par un schéma Marshmallow (voir backend/geonature/utils/config_schema.py).

Dans l’application flask, l’ensemble des paramètres de configuration sont utilisables via le dictionnaire config :

from geonature.utils.config import config

MY_PARAMETER = config['MY_PARAMETER']

Le dictionnaire config est également accessible via current_app.config.

La configuration des modules est accessible à la clé MODULE_CODE du dictionnaire de configuration. Elle est également accessible directement via la propriété config du blueprint du module :

from flask import current_app

MY_MODULE_PARAMETER = current_app.config['MODULE_CODE']['MY_MODULE_PARAMETER']
MY_MODULE_PARAMETER = blueprint.config['MY_MODULE_PARAMETER']

Authentification et autorisations#

Accéder à l’utilisateur courant#

L’utilisateur courant est stocké dans l’espace de nom g :

>>> from flask import g
>>> print(g.current_user)
<User ''admin'' id='3'>

Il s’agit d’une instance de pypnusershub.db.models.User. Si l’utilisateur n’est pas connecté, g.current_user vaudra None.

Restreindre une route aux utilisateurs connectés#

Utiliser le décorateur @login_required :

from geonature.core.gn_permissions.decorators import login_required

@login_required
def my_protected_route():
    pass

Si l’utilisateur n’est pas authentifié, celui-ci est redirigé vers une page d’authentification, à moins que la requête contienne un header Accept: application/json (requête effectuée par le frontend) auquel cas une erreur 401 (Unauthorized) est levé.

Restreindre une route aux utilisateurs avec un certain scope#

Utiliser le décorateur @check_cruved_scope :

@check_cruved_scope#
Paramètres:
  • action (str["C", "R", "U", "V", "E", "D"]) – Type d’action effectuée par la route (Create, Read, Update, Validate, Export, Delete)

  • module_code (str) – Code du module sur lequel on veut vérifier les permissions.

  • object_code (str, optional) – Code de l’objet sur lequel on veut vérifier les permissions. Si non fourni, on vérifie la portée sur l’objet ALL.

  • get_scope (bool, optional) – si True, ajoute le scope aux kwargs de la vue

Lorsque l’utilisateur n’est pas connecté, le comportement est le même que le décorateur @login_required. Lorsque celui-ci est connecté, le décorateur va récupérer le scope de l’utilisateur pour l’action donnée dans le module donnée (et éventuellement l’objet donnée). Si ce scope est égal à 0, alors une erreur 403 (Forbidden) est levée.

Avertissement

Le décorateur ne vérifie pas si un scope de 1 ou 2 est suffisant pour accéder aux ressources demandées. C’est à votre route d’implémenter cette vérification, en utilisant l’argument get_scope=True afin de récupérer la valeur exacte du scope.

Exemple d’utilisation :

from geonature.core.gn_permissions.decorators import check_cruved_scope

@blueprint.route('/mysensibleview', methods=['GET'])
@check_cruved_scope(
        'R',
        module_code="OCCTAX"
        get_scope=True,
)
def my_sensible_view(scope):
    if scope < 2:
        raise Forbidden

Récupération manuelle du scope#

La fonction suivante permet de récupérer manuellement le scope pour un rôle, une action et un module donnés :

get_scope(action_code, id_role, module_code, object_code)#

Retourne le scope de l’utilisateur donnée une action dans le module demandé.

Paramètres:
  • action_code (str["C", "R", "U", "V", "E", "D"]) – Code de l’action.

  • id_role (int, optional) – Identifiant du role. Utilisation de g.current_user si non spécifié (nécessite de se trouver dans une route authentifiée).

  • module_code (str, optional) – Code du module. Si non spécifié, utilisation de g.current_module

  • object_code (str, optional) – Code de l’objet. Si non spécifié, utilisation de g.current_object, ALL à défaut.

Renvoie:

Valeur du scope

Type renvoyé:

int[0, 1, 2, 3]

Il est également possible de récupérer les scopes pour l’ensemble des actions possibles grâce à la fonction suivante :

get_scopes_by_action(id_role, module_code, object_code)#

Retourne un dictionnaire avec pour clé les actions du CRUVED et pour valeur le scope associé pour un utilisateur et un module donné (et éventuellement un objet précis).

Paramètres:
  • id_role (int) – Identifiant du role. Utilisation de g.current_user si non spécifié (nécessite de se trouver dans une route authentifiée).

  • module_code (str) – Code du module. Si non spécifié, utilisation de g.current_module si définie, GEONATURE sinon.

  • object_code (str) – Code de l’objet. ALL si non précisé.

Renvoie:

Dictionnaire de scope pour chaque action du CRUVED.

Type renvoyé:

dict[str, int]

Exemple d’usage :

>>> from geonature.core.gn_permissions.tools import get_scopes_by_action
>>> get_scopes_by_action(id_role=3, module_code="METADATA")
{'C': 3, 'R': 3, 'U': 3, 'V': 3, 'E': 3, 'D': 3}

Restreindre une route aux utilisateurs avec des permissions avancées#

Utiliser le décorateur @permissions_required :

@permissions_required#
Paramètres:
  • action (str["C", "R", "U", "V", "E", "D"]) – Type d’action effectuée par la route (Create, Read, Update, Validate, Export, Delete)

  • module_code (str) – Code du module sur lequel on veut vérifier les permissions.

  • object_code (str, optional) – Code de l’objet sur lequel on veut vérifier les permissions. Si non fourni, on vérifie la portée sur l’objet ALL.

Lorsque l’utilisateur n’est pas connecté, le comportement est le même que le décorateur @login_required. Lorsque celui-ci est connecté, le décorateur va récupérer l’ensemble des permissions pour l’action donnée dans le module donnée (et éventuellement l’objet donnée). Si aucune permission n’est trouvée, alors une erreur 403 (Forbidden) est levée.

Avertissement

Le décorateur ne vérifie pas si le jeu de permissions est suffisant pour accéder aux ressources demandées. C’est à votre route d’implémenter cette vérification, celle-ci recevant le jeu de permissions en argument.

Exemple d’utilisation :

from geonature.core.gn_permissions.decorators import permissions_required

@blueprint.route('/mysensibleview', methods=['GET'])
@permissions_required(
        'R',
        module_code="SYNTHESE"
)
def my_sensible_view(permissions):
    for perm in permissions:
        if perm.has_other_filters_than("SCOPE", "SENSITIVITY"):
            continue
        if perm.scope_value > 2 and not perm.sensitivity_filter:
            break
    else:
        raise Forbidden

Récupération manuelle des permissions avancées#

Utiliser la fonction get_permissions :

get_permissions(action_code, id_role, module_code, object_code)#

Retourne l’ensemble des permissions de l’utilisateur donnée pour l’action, le module et l’objet précisé.

Paramètres:
  • action_code (str["C", "R", "U", "V", "E", "D"]) – Code de l’action.

  • id_role (int, optional) – Identifiant du role. Utilisation de g.current_user si non spécifié (nécessite de se trouver dans une route authentifiée).

  • module_code (str, optional) – Code du module. Si non spécifié, utilisation de g.current_module

  • object_code (str, optional) – Code de l’objet. Si non spécifié, utilisation de g.current_object, ALL à défaut.

Renvoie:

Liste de permissions

Type renvoyé:

list[Permission]

À propos de l’API « scope »#

Certains modules supportent des permissions avec plusieurs types de filtres (par exemple, filtre d’appartenance et filtre de sensibilité), ce qui amène à devoir définir plusieurs permissions pour une même action dans un module donnée (par exemple, droit de lecteur des données de mon organisme sans restriction de sensibilité + droit de lecteur des données non sensible sans restriction d’appartenance).

Cependant, cet usage est très peu répandu, la plupart des modules acceptant uniquement un filtre d’appartenance, voir aucun filtre. Ainsi, l’API « scope » (décorateur @check_cruved_scope, fonctions get_scope et get_scopes_by_action) visent à simplifier l’usage des permissions dans ces modules en résumant les droits de l’utilisateur par un entier de 0 à 4 :

  • 0 : aucune donnée (pas de permission)

  • 1 : données m’appartenant

  • 2 : données appartenant à mon organisme

  • 3 : toutes les données (permission sans filtre d’appartenance)

L’utilisateur héritant des permissions des différents groupes auquel il appartient en plus de ses permissions personnelles, l’API « scope » s’occupe de calculer le scope maximal de l’utilisateur.

Rajouter un nouveau type de filtre#

On suppose souhaiter l’ajout d’un nouveau type de filtre « foo ».

  1. Rajouter une colonne dans la table t_permissions nommé foo_filter du type désiré (booléen, entier, …) avec éventuellement une contrainte de clé étrangère. Dans le cas où le filtre peut contenir une liste de valeur contrôlées par une Foreign Key, on préfèrera l’ajout d’une nouvelle table contenant une Foreign Key vers t_permissions.id_permission (par exemple, filtre géographique avec liste d’id_area ou filtre taxonomique avec liste de cd_nom).

  2. Rajouter une colonne booléenne dans la table t_permissions_available nommé foo_filter.

  3. Faire évoluer les modèles Python Permission et PermissionAvailable pour refléter les changements du schéma de base de données.

  4. Compléter Permission.filters_fields et PermissionAvailable.filters_fields (e.g. "FOO": foo_filter).

  5. Vérifier que la propriété Permission.filters fonctionne correctement avec le nouveau filtre : celui-ci doit être renvoyé uniquement s’il est défini. Le cas d’une relationship n’a encore jamais été traité.

  6. Optionel : Rajouter une méthode statique Permission.__FOO_le__(a, b). Celle-ci reçoit en argument 2 filtres FOO et doit renvoyer True lorsque le filtre a est plus restrictif (au autant) que le filtre b. Par exemple, dans le cas d’un filtre géographique, on renvera True si b vaut None (pas de restriction géographique) ou si la liste des zonages a est un sous-ensemble de la liste des zonages b. Cette méthode permet d’optimiser le jeu de permission en supprimant les permissions redondantes.

  7. Compléter la classe PermFilter qui permet l’affichage des permissions dans Flask-Admin (permissions des utilisateurs et des groupes). Attention, Flask-Admin utilise FontAwesome version 4.

  8. Faire évoluer Flask-Admin (classes PermissionAdmin et PermissionAvailableAdmin) pour prendre en charge le nouveau type de filtre.

  9. Implémenter le support de son nouveau filtre à l’endroit voulu (typiquement la synthèse).

  10. Compléter ou faire évoluer la table t_permissions_available pour déclarer le nouveau filtre comme disponible pour son module.

Développement Frontend#

Serveur frontend en développement#

Lancer le serveur frontent en développement :

cd ~/geonature/frontend/
nvm use
npm run start

Le frontend est alors accessible à l’adresse http://127.0.0.1:4200.

Bonnes pratiques#

  • Chaque gn_module de GeoNature doit être un module Angular indépendant https://angular.io/guide/ngmodule.

  • Ce gn_module peut s’appuyer sur une série de composants génériques intégrés dans le module GN2CommonModule et décrit ci-dessous

Les composants génériques#

Un ensemble de composants décrits ci-dessous sont intégrés dans le coeur de GeoNature et permettent aux développeurs de simplifier la mise en place de formulaires ou de bloc cartographiques.

Voir la DOCUMENTATION COMPLETE sur les composants génériques.

NB : les composants de type « formulaire » (balise input ou select) partagent une logique commune et ont des Inputs et des Outputs communs, décrits ci-dessous. (voir PnX-SI/GeoNature).

Une documentation complète des composants génériques est disponible ici

NB : les composants de type « formulaire » (balise input ou select) partagent une logique commune et ont des Inputs et des Outputs communs, décrits ci-dessous. (voir PnX-SI/GeoNature).

  • Inputs

    • L’input parentFormControl de type FormControl (https://angular.io/api/forms/FormControl) permet de contrôler la logique et les valeurs du formulaire depuis l’extérieur du composant. Cet input est obligatoire pour le fonctionnement du composant.

    • L’input label (string) permet d’afficher un label au dessus de l’input.

    • L’input displayAll (boolean, défaut = false) permet d’ajouter un item “tous” sur les inputs de type select (Exemple : pour sélectionner tous les jeux de données de la liste)

    • L’input multiSelect (boolean, défaut = false) permet de passer les composants de type select en « multiselect » (sélection multiple sur une liste déroulante). Le parentFormControl devient par conséquent un tableau

    • L’input searchBar (boolean, défaut = false) permet de rajouter une barre de recherche sur les composants multiselect

    • L’input disabled (boolean) permet de rendre le composant non-saisissable

    • L’input debounceTime définit une durée en ms après laquelle les évenements onChange et onDelete sont déclenchés suite à un changement d’un formulaire. (Par défault à 0)

  • Outputs

    Plusieurs Output communs à ses composants permettent d’émettre des événements liés aux formulaires.

    • onChange : événement émit à chaque fois qu’un changement est effectué sur le composant. Renvoie la valeur fraiche de l’input.

    • onDelete : événement émit chaque fois que le champ du formulaire est supprimé. Renvoie un évenement vide.

Ces composants peuvent être considérés comme des « dump components » ou « presentation components », puisque que la logique de contrôle est déportée au composant parent qui l’accueille (https://blog.angular-university.io/angular-2-smart-components-vs-presentation-components-whats-the-difference-when-to-use-each-and-why/)

Un ensemble de composants permettant de simplifier l’affichage des cartographies Leaflet sont disponibles. Notamment un composant « map-list » permettant de connecter une carte avec une liste d’objets décrits en détail ci-dessous.

MapListComponent#

Le composant MapList fournit une carte pouvant être synchronisée avec une liste. La liste, pouvant être spécifique à chaque module, elle n’est pas intégrée dans le composant et est laissée à la responsabilité du développeur. Le service MapListService offre cependant des fonctions permettant facilement de synchroniser les deux éléments.

Fonctionnalité et comportement offerts par le composant et le service :

  • Charger les données

    Le service expose la fonction getData(apiEndPoint, params?) permettant de charger les données pour la carte et la liste. Cette fonction doit être utilisée dans le composant qui utilise le composant MapListComponent. Elle se charge de faire appel à l’API passée en paramètre et de rendre les données disponibles au service.

    Le deuxième paramètre params est un tableau de paramètre(s) (facultatif). Il permet de filtrer les données sur n’importe quelle propriété du GeoJson, et également de gérer la pagination.

    Exemple : afficher les 10 premiers relevés du cd_nom 212 :

    mapListService.getData('occtax/releve',
    [{'param': 'limit', 'value': 10'},
    {'param': 'cd_nom', 'value': 212'}])
    

    Exemple dans le module OccTax

    L’API doit nécessairement renvoyer un objet comportant un GeoJson. La structure du l’objet doit être la suivante :

    'total': nombre d'élément total,
    'total_filtered': nombre d'élément filtré,
    'page': numéro de page de la liste,
    'limit': limite d'élément renvoyé,
    'items': le GeoJson
    

    Pour une liste simple sans pagination, seule la propriété “items” est obligatoire.

  • Rafraîchir les données

    La fonction refreshData(apiEndPoint, method, params?) permet de raffrachir les données en fonction de filtres personnalisés. Les paramètres apiEndPoint et params sont les mêmes que pour la fonction getData. Le paramètre method permet lui de chosir si on ajoute - append- , ou si on initialise (ou remplace) -set- un filtre.

    Exemple 1 : Pour filtrer sur l’observateur 1, puis ajouter un filtre sur l’observateur 2 :

    mapListService.refreshData('occtax/relevé', 'append, [{'param': 'observers', 'value': 1'}])
    

    puis :

    refreshData('occtax/relevé', 'append, [{'param': 'observers', 'value': 2'}])
    

    Exemple 2: pour filtrer sur le cd_nom 212, supprimer ce filtre et filtrer sur le cd_nom 214

    mapListService.refreshData('occtax/relevé', 'set, [{'param': 'cd_nom', 'value': 1'}])
    

    puis :

    mapListService.refreshData('occtax/relevé', 'set, [{'param': 'cd_nom', 'value': 2'}])
    
  • Gestion des évenements :

    • Au clic sur un marker de la carte, le service MapListService expose la propriété selectedRow qui est un tableau contenant l’id du marker sélectionné. Il est ainsi possible de surligner l’élément séléctionné dans le liste.

    • Au clic sur une ligne du tableau, utiliser la fonction MapListService.onRowSelected(id) (id étant l’id utilisé dans le GeoJson) qui permet de zoomer sur le point séléctionner et de changer la couleur de celui-ci.

Le service contient également deux propriétés publiques geoJsonData (le geojson renvoyé par l’API) et tableData (le tableau de features du Geojson) qui sont respectivement passées à la carte et à la liste. Ces deux propriétés sont utilisables pour interagir (ajouter, supprimer) avec les données de la carte et de la liste.

  • Selector : pnx-map-list

  • Inputs :

    idName:

    Libellé de l’id du geojson (id_releve, id)

    Type: string

    height:

    Taille de l’affichage de la carte Leaflet

    Type: string

Exemple d’utilisation avec une liste simple :

<pnx-map-list
        idName="id_releve_occtax"
        height="80vh">
</pnx-map-list>
<table>
        <tr ngFor="let row of mapListService.tableData" [ngClass]=" {'selected': mapListService.selectedRow[0]} == row.id ">
                <td (click)="mapListService.onRowSelect(row.id)"> Zoom on map </td>
                <td > {{row.observers}} </td>
                <td > {{row.date}} </td>
        </tr>
</table>

Gestion des erreurs#

GeoNature utilise un intercepteur générique afin d’afficher un toaster en cas d’erreur lors d’une requête HTTP. Si vous souhaitez traiter l’erreur vous-même, et empêcher le toaster par défaut de s’afficher, vous pouvez définir un header not-to-handle à votre requête :

this._http.get('/url', { headers: { "not-to-handle": 'true' } })

Tests#

Pour toute PR ou nouvelle fonctionnalité il est demandé d’écrire des tests. Voir la section dédiée sur l’écriture des tests frontend.

Tests backend#

Cette documentation a pour objectif d’expliquer comment écrire des tests pour le backend de GeoNature.

Un test se décompose en général en 3 étapes :

  • Arrange : prépare tous les éléments avant l’exécution de la portion de code à tester (en général une fonction)

  • Act : exécute cette portion de code

  • Assert : vérifie que l’exécution s’est bien déroulée

Il est toujours utile de distinguer dans le code ces 3 étapes en ajoutant un commentaire ou une séparation entre elles.

Enfin un test doit être concis, il vaut mieux écrire plusieurs tests pour tester différentes configurations plutôt qu’un seul les testant toutes d’un coup. Cela permet d’identifier plus précisément le test qui n’a pas fonctionné.

Introduction#

Comme spécifié dans la partie Développement, la librairie Python PyTest est utilisée pour rédiger des tests. Elle permet de :

  • disposer d’un framework de redaction de tests en se basant notamment sur l’instruction assert

  • écrire des objets ou des portions de code réutilisables : les fixtures

  • lancer un même test avec des configurations différentes

  • faire de nombreuses autres choses décrites dans la documentation PyTest

Utilisation#

Les tests sont des fonctions pouvant être regroupées dans des classes. La nomenclature est la suivante :

  • Les tests doivent être situées dans un dossier nommé tests (dans GeoNature, ils sont situés dans backend/geonature/tests)

  • Le nom de chaque fichier Python contenant des tests doit commencer par test_

  • Chaque classe comprenant des tests doit commencer par Test (pas de underscore car la norme PEP8 impose un nom de classe en CamelCase)

  • Chaque nom de test (donc de fonction) doit commencer par test_ pour pouvoir être détecté automatiquement par PyTest

Fixtures#

Les fixtures de PyTest peuvent permettre de nombreuses choses comme expliqué dans la documentation PyTest sur les fixtures.

Dans GeoNature elles sont, en général, utilisées pour définir des objets réutilisables comme des utilisateurs en base de données pour tester les droits, des observations fictives de taxon pour tester des routes de la synthèse ou encore des éléments non présents en base pour tester que le code voulant les récupérer ne plante pas etc.

Elles sont aussi utilisées pour fournir un contexte à un test. Par exemple, la fixture temporary_transaction permet de ne pas sauvegarder ce qui sera inséré/supprimé/modifié dans la base de données pendant le test.

Note

La plupart des fixtures sont rassemblées dans backend/geonature/tests/fixtures.py, il est important de regarder lesquelles y sont définies avant d’en écrire d’autres !

Enfin, les fixtures peuvent aussi être définies directement dans le fichier Python du test. Elles sont définies comme suit :

# Obligatoire pour accéder au décorateur
import pytest

# Définit une fixture qui renverra 2
@pytest.fixture()
def my_fixture():
  return 2

Et s’utilisent comme suit :

# On passe directement la fixture en argument du test. Il est
# nécessaire de l'importer si elle n'est pas définie dans le même fichier
# Ce test n'est pas dans une classe (donc pas de self)
def test_ma_fonction_a_tester(my_fixture):
  result = my_fixture

  # On vérifie que la fixture retourne la bonne valeur
  assert result == 2

Il est aussi possible de définir un scope d’une fixture comme ceci :

# Définit une fixture qui renverra 2 mais qui sera exécutée qu'une
# seule fois par classe (une classe regroupe plusieurs tests) au
# lieu d'une fois par test. Il est possible aussi de définir ce
# scope au module ou à la function
@pytest.fixture(scope="class")
def my_fixture():
  return 2

Exemple#

Voici un exemple de test qui a été fait dans GeoNature

def test_get_consistancy_data(self):
    synthese_record = Synthese.query.first()

    response = self.client.get(
        url_for("gn_profiles.get_consistancy_data",
                id_synthese=synthese_record.id_synthese))

    assert response.status_code == 200

Ce test est situé dans une classe (le self est donc obligatoire). Ce test vérifie que la route gn_profiles.get_consistancy_data fonctionne bien avec un id_synthese pris dans la base de données. Le assert est directement interprété par PyTest et le test sera en erreur si la condition n’est pas respectée. Il est possible d’écrire plusieurs assert pour un même test !

Enfin, une fixture a été utilisée au niveau de la classe pour rendre accessible l’attribut client de la classe, utile pour faire des requêtes http notamment.

Dans GitHub#

Dans le dépôt de GeoNature sur GitHub, tous ces tests sont exécutés automatiquement pour chaque commit d’une pull request grâce à PyTest et à GitHub Actions. Ils permettent donc de vérifier que les modifications apportées par les développeurs ne changent pas le statut des tests et permettent donc aux mainteneurs du projet de disposer d’une meilleure confiance dans la pull request. Un coverage est aussi exécuté pour s’assurer que les nouveaux développements sont bien testés.

Coverage#

Le coverage est un système permettant de quantifier les lignes de code exécutées par le test. Exemple rapide :

# Définition d'une fonction quelconque
def ma_fonction_a_tester(verbose=False):
    if verbose:
        return "blablabla"
    return "blabla"

# Définition d'un possible test associé
def test_ma_fonction_a_tester():
    # Arrange
    verbose = True

    # Act
    message = ma_fonction_a_tester(verbose=verbose)

    # Assert
    assert message == "blablabla"

Dans cet exemple, un seul test a été écrit où verbose = True donc la ligne return "blabla" ne sera jamais exécutée par un test. Donc sur les 3 lignes de la fonction, seules 67% des lignes ont été exécutées donc le coverage serait d’environ (le calcul est plus complexe) 67%. Il faudrait donc écrire un nouveau test avec verbose = False dans Arrange pour obtenir 100% de coverage sur la fonction ma_fonction_a_tester().

Avertissement

Un coverage de 100% ne garantit pas un code sans bug ! Il permet plutôt d’être plus confiant dans la modification/refactorisation de lignes de code et dans le développement de nouvelles fonctionnalités.

Dans VSCode#

Il est possible d’installer l’extension Python pour facilement lancer et debugger un ou plusieurs tests directement depuis VSCode. Il suffit juste de changer le fichier settings.json dans le dossier .vscode de votre projet avec le code suivant pour qu’il soit compatible avec GeoNature :

{
  "python.testing.pytestArgs": [
    "/chemin/vers/geonature/backend/geonature/tests"
  ],
  "python.testing.unittestEnabled": false,
  "python.testing.pytestEnabled": true
}

Pour exécuter les tests de GeoNature placez vous à la racine du dossier où est installé GeoNature et exécutez la commande suivante :

pytest

Assurez vous d’avoir bien installé les librairies de développement avant (en étant toujours placé à la racine de l’installation de GeoNature) :

pip install -e .[tests]

Pour exécuter un seul test l’option -k est très utile :

pytest -k 'test_uuid_report_with_dataset_id'

Ici, elle exécutera uniquement le test test_uuid_report_with_dataset_id (du ficher test_gn_meta.py).

Enfin, pour générer le coverage en même temps que les tests :

pytest --cov --cov-report xml

Le format xml est interprété par l’extension VSCode Coverage Gutters qui fournie directement dans le code les lignes couvertes et celles non parcourues par le test.

Si vous souhaitez voir le coverage directement depuis le navigateur, il est possible de générer le coverage au format html en remplaçant xml par html.

Evaluer les performances du backend#

Les versions de GeoNature >2.14.1 intègrent la possibilité d’évaluer les performances de routes connues pour leur temps de traitement important. Par exemple, l’appel de la route gn_synthese.get_observations_for_web avec une géographie non-présente dans le référentiel géographique.

Cette fonctionnalité s’appuie sur pytest et son extension ``pytest-benchmark``(https://pytest-benchmark.readthedocs.io/en/latest/).

Pour lancer les tests de performances, utiliser la commande suivante : pytest --benchmark-only

La création de tests de performance s’effectue à l’aide de la classe geonature.tests.benchmarks.benchmark_generator.BenchmarkTest.

L’objet BenchmarkTest prend en argument :

  • La fonction dont on souhaite mesurer la performance

  • Le nom du test

  • Les args de la fonction

  • les kwargs de la fonction

Cette classe permet de générer une fonction de test utilisable dans le _framework_ existant de pytest. Pour cela, rien de plus simple ! Créer un fichier de test (de préférence dans le sous-dossier backend/geonature/tests/benchmarks).

Import la classe BenchmarkTest dans le fichier de test.

Ajouter un test de performance, ici le test test_print qui teste la fonction print de Python.

bench = BenchmarkTest(print,"test_print",["Hello","World"],{})

Ajouter la fonction générée dans bench dans une classe de test:

Note

Le décorateur @pytest.mark.benchmark permet de configurer l’éxecution des tests de performances par pytest-benchmark. Dans l’exemple ci-dessus, on l’utilise pour regrouper les tests de performances déclarés dans la classe TestBenchie dans un groupe nommée occhab.

Affichage des tests de performances

Si le test de performances doit accéder à des fonctions ou des variables uniquement accessibles dans le contexte de l’application flask, il faudra utiliser l’objet geonature.tests.benchmarks.CLater. Ce dernier permet de déclarer un expression python retournant un objet (fonction ou variable) dans une chaîne de caractère qui sera _évalué_ (voir la fonction eval() de Python) uniquement lors de l’exécution du benchmark.

L’exécution de certaines benchmark de routes doivent inclure l’engistrement d’utilisateur de tests. Pour cela, il suffit d’utiliser la clé user_profile dans l’argument kwargs (Voir code ci-dessus).

Si l’utilisation de _fixtures_ est nécessaire à votre test de performance, utilisé la clé fixture dans l’argument kwargs:

Tests frontend#

Cette documentation a pour objectif d’expliquer comment écrire des tests pour le frontend de GeoNature.

L’écriture de tests frontend dans GeoNature se base sur l’outil Cypress dont il est necessaire de maitriser et comprendre le fonctionnement.

Le lancement des tests cypress nécessite la présence de données en base. Les branches alembic suivantes doivent être montées : occtax-samples-test, occhab-samples. Le contenu du fichier config/test_config.toml doit également être utilisé.

Principe de base ; Un test doit être concis. Il vaut mieux écrire plusieurs tests pour tester différentes configurations plutôt qu’un seul les testant toutes d’un coup. Cela permet d’identifier plus précisément le test qui n’a pas fonctionné.

Rédaction#

La rédaction des fichiers de tests se fait dans le dossier frontend/cypress/e2e.

Structure#

La nomenclature des fichiers de test est XXXXXXX-spec.js (XXXX correspondant au nom du module testé).

Afin d’améliorer la lisibilité des fichiers de test si un module contient beaucoup de tests il est nécessaire de séparer les tests end to end en plusieurs fichiers et les placer dans un dossier portant le nom du module.

Exemple#

e2e
├── import
│   ├── all-steps-spec.js
│   └── list-search-spec.js

Dans chaque fichier la structure des tests est de la forme

  • une description
    • test

    • test

Exemple#

describe("description général de la partie testée", () => {

    it('description du test 1', () => {
        //contenu du test 1
    })

    it('description du test 2', () => {
        //contenu du test 2
    })

})

Afin d’homogénéiser les descriptions des tests il est établi que l’on nomme un test en anglais en commençant par should.

Exemple#

it('should change the state',() => ...

Implémentation#

La réalisation des tests frontend passe par la sélection des objets HTML du DOM. A fin de rendre ces sélections plus propres, on peut ajouter des tags HTML dans le dom. Angular et Cypress suggèrent l’ajout de tags de ce type:

  • data-qa

  • test-qa

  • data-test

Il est recommandé d’utiliser un nom explicite pour éviter toutes confusions.

Exemple#

<button data-qa="import-list-new">New</button>

Voir https://docs.cypress.io/guides/references/best-practices#Selecting-Elements pour les bonnes pratique de sélection d’éléments.

Lancement#

Pour lancer Cypress et executer les tests à la main il faut exécuter la commande (nécessite qu’une instance GeoNature fonctionne (backend+frontend)):

$ npm run cypress:open

Pour lancer les test en mode automatique, il faut exécuter la commande (utilisée dans l’intégration continue (GitHub Action)):

$ npm run e2e:ci && npm run e2e:coverage

Développer un module externe#

GeoNature a été conçu pour fonctionner en briques modulaires.

Chaque protocole, répondant à une question scientifique, est amené à avoir son propre module GeoNature comportant son modèle de base de données (dans un schéma séparé), son API et son interface utilisateur.

Les modules développés s’appuieront sur le coeur de GeoNature qui est constitué d’un ensemble de briques réutilisables.

En base de données, le coeur de GeoNature est constitué de l’ensemble des référentiels (utilisateurs, taxonomique, nomenclatures géographique) et du schéma gn_synthese regroupant l’ensemble données saisies dans les différents protocoles (voir doc administrateur pour plus de détail sur le modèle de données).

L’API du coeur permet d’interroger les schémas de la base de données « coeur » de GeoNature. Une documentation complète de l’API est disponible dans la rubrique API.

Du côté interface utilisateur, GeoNature met à disposition un ensemble de composants Angular réutilisables pour l’affichage des cartes, des formulaires etc…

Avant de développer un gn_module, assurez-vous d’avoir GeoNature bien installé sur votre machine (voir Installation de GeoNature uniquement).

Afin de pouvoir connecter ce module au « coeur », il est impératif de suivre une arborescence prédéfinie par l’équipe GeoNature. Un template GitHub a été prévu à cet effet (PnX-SI/gn_module_template). Il est possible de créer un nouveau dépôt GitHub à partir de ce template, ou alors de copier/coller le contenu du dépôt dans un nouveau.

Cette arborescence implique de développer le module dans les technologies du coeur de GeoNature à savoir :

  • Le backend est développé en Python grâce au framework Flask.

  • Le frontend est développé grâce au framework Angular (voir la version actuelle du coeur)

GeoNature prévoit cependant l’intégration de module « externe » dont le frontend serait développé dans d’autres technologies. La gestion de l’intégration du module est à la charge du développeur.

  • Le module se placera dans un dossier à part du dossier « GeoNature » et portera le suffixe « gn_module ». Exemple : gn_module_validation

  • Le backend doit être un paquet Python. Ce paquet peut définir différent entry points permettant de renseigner différentes informations sur votre module :

    • code : le MODULE_CODE de votre module (obligatoire)

    • picto : le pictogramme par défaut pour l’entrée dans le menu Geonature (facultatif)

    • blueprint : le blueprint qui sera servit par GeoNature (obligatoire)

    • config_schema : un schéma Marshmallow permettant de valider la configuration du module (obligatoire)

    • migrations : l’emplacement de vos migrations Alembic pour le schéma de base de données de votre module (facultatif)

    • alembic_branch : le nom de la branche Alembic (par défaut, la branche Alembic devra porter le nom du module code en minuscule)

    • tasks: votre fichier de tâches asynchrones Celery (facultatif)

  • Le frontend doit être placé dans un sous-dossier frontend. Il comprendra les éléments suivants :

    • Les fichiers package.json et package-lock.json avec vos dépendances (facultatif si pas de dépendances)

    • Un dossier assets avec un sous-dossier du nom du module avec l’ensemble des médias (images, son)

    • Un dossier app qui comprendra le code de votre module, avec notamment le « module Angular racine » qui doit impérativement s’appeler gnModule.module.ts

Pour l’installation du module, voir Installation d’un module GeoNature.

Bonnes pratiques Frontend#

  • Pour l’ensemble des composants cartographiques et des formulaires (taxonomie, nomenclatures…), il est conseillé d’utiliser les composants présents dans le module “GN2CommonModule”.

    Importez ce module dans le module racine de la manière suivante

    import { GN2CommonModule } from '@geonature_common/GN2Common.module';
    
  • Les librairies JS seront installées dans le dossier node_modules de GeoNature. (Il n’est pas nécessaire de réinstaller toutes les librairies déjà présentes dans GeoNature (Angular, Leaflet, ChartJS …). Le package.json de GeoNature liste l’ensemble des librairies déjà installées et réutilisable dans le module.

  • Les fichiers d’assets sont à ranger dans le dossier assets du frontend. Angular-cli impose cependant que tous les assets soient dans le répertoire mère de l’application (celui de GeoNature). Un lien symbolique est créé à l’installation du module pour faire entre le dossier d’assets du module et celui de Geonature.

  • Utiliser node_modules présent dans GeoNature

    Pour utiliser des librairies déjà installées dans GeoNature, utilisez la syntaxe suivante

    import { TreeModule } from "@librairies/angular-tree-component";
    

    L’alias @librairies pointe en effet vers le repertoire des node_modules de GeoNature

    Pour les utiliser à l’interieur du module, utiliser la syntaxe suivante

    <img src="assets/<MY_MODULE_CODE>/afb.png">
    

    Exemple pour le module de validation

    <img src="assets/<gn_module_validation>/afb.png">
    

Intégrer l’import de données dans votre module#

A partir de la version 2.15, le module d’Import permet l’ajout de nouvelles destinations en plus de la Synthèse. Cela a été l’occasion d’ajouter la possibilité d’importer des données d’habitat dans le module Occhab. Cette section présente le processus d’ajout de l’import dans votre module GeoNature.

Modification à apporter sur la base de données#

Plusieurs points sont essentiels au bon fonctionnement de l’import dans votre module :

  1. Avoir une permission C sur votre module de destination

  2. Créer un objet destination (bib_destinations) et autant d’entités (bib_entities) que vous avez d’objets dans votre module (e.g. habitat, station pour Occhab)

  3. Créer une table transitoire permettant d’effectuer la complétion et le contrôle des données avant l’import des données vers la table de destination finale.

  4. Pour chaque entité, déclarer les attributs rendus accessibles à l’import dans bib_fields

  5. Si de nouvelles erreurs de contrôle de données doivent être déclarées, ajouter ces dernières dans bib_errors_type

N.B. Comme dans le reste de GeoNature, il est conseillé d’effectuer les modifications de base de données à l’aide de migrations Alembic.

Permissions requises#

Si ce n’est pas le déjà cas, ajouter la permission de création de données dans votre module. Le code ci-dessous donne un exemple fonctionnant dans une révision alembic.

op.execute(
    """
    INSERT INTO
        gn_permissions.t_permissions_available (id_module,id_object,id_action,label,scope_filter)
    SELECT
        m.id_module,o.id_object,a.id_action,v.label,v.scope_filter
    FROM
        (
            VALUES
                ('[votreModuleCode', 'ALL', 'C', True, 'Créer [nomEntité]')
        ) AS v (module_code, object_code, action_code, scope_filter, label)
    JOIN
        gn_commons.t_modules m ON m.module_code = v.module_code
    JOIN
        gn_permissions.t_objects o ON o.code_object = v.object_code
    JOIN
        gn_permissions.bib_actions a ON a.code_action = v.action_code
    """
    )

Créer votre destination et vos entités#

Dans un premier temps, il faut créer une « destination ». Pour cela, il faut enregistrer votre module dans bib_destinations.

# Récupérer l'identifiant de votre module
id_de_votre_module = (
    op.get_bind()
    .execute("SELECT id_module FROM gn_commons.t_modules WHERE module_code = 'CODE_DE_VOTRE_MODULE'")
    .scalar()
)

# Ajouter la destination
# N.B. table_name correspond au nom de la future table transitoire
destination = Table("bib_destinations", meta, autoload=True, schema="gn_imports")
op.get_bind()
.execute(
    sa.insert(destination)
    .values(
        id_module=id_de_votre_module,
        code="votre_module_code",
        label="VotreModule",
        table_name="t_imports_votre_module",
    )
)

Dans votre module, plusieurs objets sont manipulés et stockés chacun dans une table. Pour prendre l’exemple du module Occhab, on a deux entités les stations et les habitats.

id_dest_module= (
op.get_bind()
.execute("SELECT id_destination FROM gn_imports.bib_destinations WHERE code = 'votre_module_code'")
.scalar()
)
entity = Table("bib_entities", meta, autoload=True, schema="gn_imports")
op.get_bind()
.execute(
    sa.insert(entity)
    .values(
        id_destination=id_dest_module,
        code="code_entite1",
        label="Entite1",
        order=1,
        validity_column="entite1_valid",
        destination_table_schema="votre_module_schema",
        destination_table_name="entite1_table_name",
    )
)

Créer votre table transitoire#

Nécessaire pour le contrôle de données, il est important de créer une table transitoire permettant d’effectuer la complétion et le contrôle des données avant l’import des données vers la table de destination finale. La table transitoire doit contenir les colonnes suivantes :

  • id_import : identifiant de l’import

  • line_no : entier, numéro de la ligne dans le fichier source

  • entityname_valid : booleen, indique si une entité est valide

  • pour chaque champ de l’entité, il faudra une colonne VARCHAR contenant la donnée du fichier et une colonne du type du champ qui contiendra la données finales. La convention de nommage est la suivante: « src_nomchamp » pour colonne contenant la données du fichier source et « nomchamp » pour la colonne contenant les données finales. Il est conseillé que le nom de la colonne contenant les données finales soit identiques à celle du champs dans la table de destination.

op.create_table(
    "t_imports_votremodule",
    sa.Column(
        "id_import",
        sa.Integer,
        sa.ForeignKey("gn_imports.t_imports.id_import", onupdate="CASCADE", ondelete="CASCADE"),
        primary_key=True,
    ),
    sa.Column("line_no", sa.Integer, primary_key=True),
    sa.Column("entite1_valid", sa.Boolean, nullable=True, server_default=sa.false()),
    # Station fields
    sa.Column("src_id_entite", sa.Integer),
    sa.Column("id_entite", sa.String),
    sa.Column("src_unique_dataset_id", sa.String),
    sa.Column("unique_dataset_id", UUID(as_uuid=True)),
    [...]
)

Déclarer les attributs rendus accessibles à l’import dans bib_fields#

Pour chaque entité (e.g. une station dans Occhab), il faut déclarer les champs du modèles accessibles à l’import dans bib_fields.

theme = Table("bib_themes", meta, autoload=True, schema="gn_imports")

id_theme_general = (
    op.get_bind()
    .execute(sa.select([theme.c.id_theme]).where(theme.c.name_theme == "general_info"))
    .scalar()
)


fields_entities=[
    (
        {
            "name_field": "id_entite1",
            "fr_label": "Identifiant entité1",
            "mandatory": True, # Obligatoire ou non
            "autogenerated": False, # généré automatique (ex. UUID)
            "display": False, # Afficher dans l'UI
            "mnemonique": None,
            "source_field": None,
            "dest_field": "id_entite1",
        },
        {
            id_entity1: { # récupérer l'id de l'entité entité1 précédement inséré
                "id_theme": id_theme_general,
                "order_field": 0,
                "comment": "", # Utilisé comme tooltip
            },
        },
    ),
    ...
]

field = Table("bib_fields", meta, autoload=True, schema="gn_imports")
id_fields = [
    id_field
    for id_field, in op.get_bind()
    .execute(
        sa.insert(field)
        .values([{"id_destination": id_votre_dest, **field} for field, _ in fields_entities])
        .returning(field.c.id_field)
    )
    .fetchall()
]
cor_entity_field = Table("cor_entity_field", meta, autoload=True, schema="gn_imports")
op.execute(
    sa.insert(cor_entity_field).values(
        [
            {"id_entity": id_entity, "id_field": id_field, **props}
            for id_field, field_entities in zip(id_fields, fields_entities)
            for id_entity, props in field_entities[1].items()
        ]
    )
)

Ajout de nouvelles erreurs de contrôle de données#

Il est possible que votre module nécessite de déclarer de nouveaux contrôles de données. Ces contrôles peuvent provoquer de nouvelles erreurs que celle déclaré dans bib_errors_type. Il est possible d’en ajouter comme dans l’exemple suivant :

error_type = sa.Table("bib_errors_types", metadata, schema="gn_imports", autoload_with=op.get_bind())
op.bulk_insert(
    error_type,
    [
        {
            "error_type": "Erreur de format booléen",
            "name": "INVALID_BOOL",
            "description": "Le champ doit être renseigné avec une valeur binaire (0 ou 1, true ou false).",
            "error_level": "ERROR",
        },
        {
            "error_type": "Données incohérentes d'une ou plusieurs entités",
            "name": "INCOHERENT_DATA",
            "description": "Les données indiquées pour une ou plusieurs entités sont incohérentes sur différentes lignes.",
            "error_level": "ERROR",
        },
        ...
    ],
)

Configuration#

Il faut d’abord créer une classe héritant de la classe ImportActions

class VotreModuleImportActions(ImportActions):
    def statistics_labels() -> typing.List[ImportStatisticsLabels]:
    # Retourne un objet contenant les labels pour les statistiques

    def preprocess_transient_data(imprt: TImports, df) -> set:
    # Effectue un pré-traitement des données dans un dataframe

    def check_transient_data(task, logger, imprt: TImports) -> None:
    # Effectue la validation des données

    def import_data_to_destination(imprt: TImports) -> None:
    # Importe les données dans la table de destination

    def remove_data_from_destination(imprt: TImports) -> None:
    # Supprime les données de la table de destination

    def report_plot(imprt: TImports) -> StandaloneEmbedJson:
    # Retourne des graphiques sur l'import

    def compute_bounding_box(imprt: TImports) -> None:
    # Calcule la bounding box

Dans cette classe on retrouve toutes les fonctions obligatoires, à implementer pour pouvoir implementer l’import dans un module.

Méthodes à implémenter#

statistics_labels()

Fonction qui renvoie un objet de la forme suivante :

{"key": "station_count", "value": "Nombre de stations importées"},
{"key": "habitat_count", "value": "Nombre d’habitats importés"},

Les statistiques sont calculées en amont, et ajoutés à l’objet import dans la section statistique. Les valeurs des clés permettent de définir les labels à afficher pour les statistique affichées dans la liste d’imports.

preprocess_transient_data(imprt: TImports, df)

Fonction qui permet de faire un pré-traitement sur les données de l’import, elle retourne un dataframe panda.

check_transient_data(task, logger, imprt: TImports)

Dans cette fonction est effectuée la validation et le traitement des données de l’import.

La fonction check_dates, par exemple, utilisée dans l’import Occhab permet de valider tous les champs de type date présents dans l’import. Elle vérifie que le format est respecté.

La fonction check_transient_data permet de génerer les uuid manquants dans l’import, elle permet notamment de générer un UUID commun à différentes lignes de l’import quand id_origin est le même.

import_data_to_destination(imprt: TImports)

Cette fonction permet d’implémenter l’import des données valides dans la table de destination une fois que toutes les vérifications ont été effectuées.

remove_data_from_destination(imprt: TImports)

Cette fonction permet de supprimer les données d’un import, lors de la suppression d’un import. C’est notamment pour pouvoir implémenter cette fonction que la colonne id_import est préconisée dans les tables de destination.

report_plot(imprt: TImports)

Cette fonction permet de créer les graphiques affichés dans le raport d’import. Pour créer ces graphiques on utilise la librairie bokeh (documentation : https://docs.bokeh.org/en/latest/). Il y a des exemples de création de graphiques dans l’import Occhab.

compute_bounding_box(imprt: TImports)

Cette fonction sert à calculer la bounding box des données importées, c’est-à-dire le plus petit polygone dans lequel sont contenues toutes les données géographique importées. Cette bounding box est affichée dans le rapport d’import une fois toutes les données validées.

Documentation#

La documentation se trouve dans le dossier docs. Elle est écrites en ReStructuredText et généré avec Sphinx.

Pour générer la documentation HTML :

  • Se placer dans le dossier docs : cd docs

  • Créer un virtualenv : python3 -m venv venv

  • Activer le virtualenv : source venv/bin/activate

  • Installer les dépendances nécessaires à la génération de la documentation : pip install -r requirements.txt

  • Lancer la génération de la documentation : make html

La documentation générée se trouve dans le dossier build/html/.

Release#

Pour sortir une nouvelle version de GeoNature :

  • Faites les éventuelles Releases des dépendances (UsersHub, TaxHub, UsersHub-authentification-module, Nomenclature-api-module, RefGeo, Utils-Flask-SQLAlchemy, Utils-Flask-SQLAlchemy-Geo)

  • Assurez-vous que les sous-modules git de GeoNature pointent sur les bonnes versions des dépendances et que le requirements-dependencies.in a bien été mis à jour.

  • Regénérer les fichiers requirements.txt et requirements-dev.txt avec les commandes suivantes dans la plus petite version de python supportée par GeoNature

    pip-compile requirements.in > requirements.txt
    pip-compile requirements-dev.in > requirements-dev.txt
    
  • Mettez à jour la version de GeoNature et éventuellement des dépendances dans install/install_all/install_all.ini

  • Complétez le fichier docs/CHANGELOG.md (en comparant les branches PnX-SI/GeoNature) et dater la version à sortir

  • Mettez à jour le fichier VERSION

  • Mergez la branche develop dans la branche master

  • Faites la release (PnX-SI/GeoNature) en la taguant X.Y.Z (sans v devant) et en copiant le contenu du Changelog

  • Dans la branche develop, modifiez le fichier VERSION en X.Y.Z.dev0 et pareil dans le fichier docs/CHANGELOG.md

  • Faites la release de GeoNature-Docker-services avec la nouvelle version de GeoNature, et éventuellement des modules (Voir un exemple)