Problèmes globaux de l'environnement et de la gestion de la nature - Suivi analytique environnemental de l'environnement.

La surveillance est assurée par des comités régionaux des services hydrométéorologiques à travers un réseau de stations spécialisées qui effectuent des observations météorologiques, hydrologiques, marines, etc. au sol. À l'heure actuelle, le PNUE exploite 344 stations de surveillance de l'eau dans le monde, situées dans 59 pays.

La surveillance de l'environnement à Moscou comprend une surveillance constante de la teneur en monoxyde de carbone, hydrocarbures, dioxyde de soufre, oxydes d'azote, ozone et poussières ; des observations de l'atmosphère de la ville sont réalisées sur 30 installations fixes fonctionnant en mode automatique. Depuis le centre de traitement de l'information, les données sur le dépassement de la concentration maximale autorisée sont envoyées au Comité de Moscou pour la protection de l'environnement et en même temps au gouvernement de la capitale. Les émissions industrielles des grandes entreprises sont également automatiquement contrôlées, ainsi que le niveau de pollution de l'eau dans la rivière Moskva. Sur la base des données de surveillance, les principales sources de pollution sont déterminées. Sur la fig. 2 est un schéma synoptique de surveillance de la classification.

Riz. 2. Schéma fonctionnel de la classification de la surveillance

Par exemple, le but de la surveillance biologique est de déterminer la résistance des écosystèmes naturels aux influences extérieures. Sa principale méthode est la bioindication (biotesting), qui est la détection et la détermination des charges anthropiques par les réactions des organismes vivants et de leurs communautés à celles-ci. Ainsi, la pollution radioactive peut être déterminée par l'état des conifères, la pollution industrielle peut être déterminée par le comportement de nombreux représentants de la faune du sol et la pollution de l'air est perçue de manière très sensible par les mousses et les lichens. Ainsi, si les lichens disparaissent sur les troncs d'arbres dans la forêt, le dioxyde de soufre est présent dans l'air. La couleur des lichens (cette méthode est appelée indication de lichen) juge également la présence de certains métaux lourds dans le sol, par exemple le cuivre. La bioindication permet de détecter à temps un niveau de pollution pas encore dangereux et de prendre des mesures pour rétablir l'équilibre écologique de l'environnement.

Selon l'échelle de généralisation des informations, le suivi se distingue :

global - suivre les processus mondiaux et les phénomènes dans la biosphère à l'aide de l'espace, de la technologie aéronautique et d'un PC et faire une prévision des changements possibles sur Terre. Un cas particulier est surveillance nationale, y compris les activités similaires menées sur le territoire d'un pays particulier ;

régional couvre des régions individuelles ;

impact effectuées dans des zones particulièrement dangereuses directement adjacentes à des sources de pollution, par exemple dans la zone d'une entreprise industrielle.

Suivi écologique et analytique de l'environnement.

Suivi écologique et analytique- surveiller la teneur en polluants de l'eau, de l'air et du sol à l'aide de méthodes d'analyse physiques, chimiques et physico-chimiques - vous permet de détecter le flux de polluants dans l'environnement, d'établir l'influence des facteurs anthropiques par rapport aux facteurs naturels et d'optimiser l'interaction de l'homme avec la nature. Alors, surveillance du sol prévoit la détermination de l'acidité, de la salinité des sols et de la perte d'humus.

Surveillance chimique - partie de l'analyse environnementale, c'est un système d'observations de la composition chimique de l'atmosphère, des précipitations, de la surface et eaux souterraines, les eaux des océans et des mers, les sols, les sédiments de fond, la végétation, les animaux et le contrôle de la dynamique de propagation des polluants chimiques. Sa tâche est de déterminer le niveau réel de pollution de l'environnement par des ingrédients hautement toxiques ; objet - soutien scientifique et technique du système d'observations et de prévisions; identification des sources et des facteurs de pollution, ainsi que le degré de leur impact ; surveiller les sources établies de polluants entrant dans l'environnement naturel et le niveau de sa pollution ; évaluation de la pollution réelle environnement naturel; prévision de la pollution de l'environnement et des moyens d'améliorer la situation.

Un tel système est basé sur des données sectorielles et régionales et comprend des éléments de ces sous-systèmes ; il peut couvrir les deux zones locales d'un même État (suivi national), alors Terre en général (surveillance globale).

Surveillance écologique et analytique de la pollution dans le cadre du système national unifié de surveillance de l'environnement. Afin d'augmenter radicalement l'efficacité du travail pour préserver et améliorer l'état de l'environnement, pour assurer la sécurité environnementale, le 24 novembre 1993, un décret gouvernemental a été adopté Fédération Russe N° 1229 "Sur la création du système d'État unifié de surveillance de l'environnement" (EGSEM). L'organisation des travaux sur la création de l'USSEM prévoit l'inclusion dans le périmètre des observations de nouveaux types et types de polluants et l'identification de leur impact sur l'environnement ; extension de la géographie de la surveillance environnementale à travers de nouveaux territoires et sources de pollution.

Les missions principales de l'EGSEM :

– développement de programmes de surveillance de l'état de l'environnement naturel sur le territoire de la Russie, dans ses différentes régions et districts;

- organisation d'observations et de mesures d'indicateurs d'objets de surveillance environnementale ;

– fiabilité et comparabilité des données d'observation à la fois dans les régions et districts individuels et dans toute la Russie;

– la collecte et le traitement des données d'observation ;

– stockage des données d'observation, création de banques de données spéciales caractérisant la situation écologique sur le territoire de la Russie et dans ses différentes régions;

– harmonisation des banques et bases informations environnementales avec les systèmes internationaux d'information sur l'environnement;

– évaluation et prévision de l'état des objets environnementaux et des impacts anthropiques sur ceux-ci, ressources naturelles, réponses des écosystèmes et de la santé publique aux changements de l'état de l'environnement humain ;

- holding contrôle opérationnel et des mesures de précision de la contamination radioactive et chimique à la suite d'accidents et de catastrophes, ainsi que la prévision de la situation environnementale et l'évaluation des dommages causés au milieu naturel ;

– mise à disposition d'informations environnementales intégrées à un large éventail de consommateurs, de mouvements sociaux et d'organisations ;

– informer les autorités sur l'état de l'environnement et des ressources naturelles, la sécurité environnementale ;

– l'élaboration et la mise en œuvre d'une politique scientifique et technique unifiée dans le domaine de la surveillance environnementale.

L'USSEM prévoit la création de deux blocs interconnectés : la surveillance des pollutions des écosystèmes et la surveillance des conséquences environnementales de ces pollutions. En outre, il devrait fournir des informations sur l'état initial (de base) de la biosphère, ainsi que l'identification des changements anthropiques dans le contexte de la variabilité naturelle.

À l'heure actuelle, les observations des niveaux de pollution de l'atmosphère, des sols, des eaux et des sédiments de fond des rivières, des lacs, des réservoirs et des mers en termes d'indicateurs physiques, chimiques et hydrobiologiques (pour les masses d'eau) sont effectuées par les services de Roshydromet. Le suivi des sources d'impact anthropique sur le milieu naturel et des zones de leur impact direct sur le monde animal et végétal, la faune et la flore terrestres (hors forêts) est assuré par les services compétents du ministère des ressources naturelles. La surveillance des terres, de l'environnement géologique et des eaux souterraines est effectuée par des subdivisions du Comité de la Fédération de Russie sur les ressources foncières et la gestion des terres et du Comité de la Fédération de Russie sur la géologie et l'utilisation du sous-sol.

En 2000, le système Roshydromet exploitait 150 laboratoires de chimie, 41 laboratoires de groupe pour l'analyse d'échantillons d'air dans 89 villes avec un contrôle hors laboratoire. Des observations de la pollution atmosphérique ont été effectuées à 682 postes fixes dans 248 villes et villages de la Fédération de Russie, et le sol sur les terres agricoles n'a pas été laissé sans attention.

Les eaux de surface des terres sont surveillées dans 1175 cours d'eau et 151 réservoirs. L'échantillonnage est effectué en 1892 points (2604 sites). En 2000, 30 000 échantillons d'eau ont été analysés pour 113 indicateurs. Des points d'observation de la pollution du milieu marin existent sur 11 mers baignant le territoire de la Fédération de Russie. Dans le système Roshydromet, plus de 3 000 échantillons sont analysés chaque année pour 12 indicateurs.

Le réseau de stations de surveillance du transport transfrontalier de polluants se concentre sur la frontière occidentale de la Russie. À l'heure actuelle, les stations Pushkinskie Gory et Pinega fonctionnent ici, qui effectuent l'échantillonnage des aérosols atmosphériques, des gaz et des précipitations.

Le contrôle de composition chimique et l'acidité des précipitations atmosphériques est effectuée dans 147 stations des niveaux fédéral et régional. Dans la plupart des échantillons, seule la valeur du pH est mesurée en ligne. Lors de la surveillance de la pollution de la couverture neigeuse, des ions ammonium, de la sulfatation, du benzo(a)pyrène et métaux lourds.

Le système de surveillance globale du fond atmosphérique comprend trois types de stations : de base, régionales et régionales avec un programme étendu.

Six stations intégrées de surveillance du bruit de fond ont également été mises en place, situées à réserves de biosphère: Barguzinsky, Central Forest, Voronej, Prioksko-Terrasny, Astrakhan et Caucasien.

Pour la surveillance des rayonnements sur le territoire du pays, en particulier dans les zones contaminées à la suite de l'accident de Tchernobyl et d'autres catastrophes radioactives, un réseau fixe et des appareils mobiles sont utilisés. Selon un programme spécial, une étude gamma aérienne du territoire de la Fédération de Russie est également effectuée.

Dans le cadre de l'USSEM, un système est en cours de création pour la détection rapide des pollutions liées aux situations d'urgence.

La surveillance écologique et analytique de la pollution dans le cadre de l'USSEM peut être divisée en trois grands blocs : la lutte contre la pollution dans les zones à impact anthropique significatif, au niveau régional, au niveau du fond.

Toutes les données des zones avec n'importe quel niveau d'impact, à la fois d'urgence et généralisé, à certains intervalles sont envoyées au centre pour la collecte et le traitement des informations. Pour un système automatisé en cours de développement, la première étape est un système local desservant une zone ou une ville distincte.

Les informations provenant des stations mobiles et des laboratoires fixes sur la pollution de l'environnement par les dioxines et les composés apparentés sont traitées, triées et transmises au niveau suivant - aux centres d'information régionaux. De plus, les données sont envoyées aux organisations intéressées. Le troisième niveau du système est le centre de données principal, qui résume les informations sur la pollution de l'environnement à l'échelle nationale.

L'efficacité des systèmes automatisés de traitement des informations environnementales et analytiques augmente sensiblement lors de l'utilisation stations automatiques lutte contre la pollution de l'eau et de l'air. Des systèmes locaux automatisés de contrôle de la pollution de l'air ont été créés à Moscou, Saint-Pétersbourg, Tcheliabinsk, Nizhny Novgorod, Sterlitamak, Ufa et d'autres villes. Des tests expérimentaux de stations de contrôle automatisé de la qualité de l'eau dans les lieux de rejet et de prise d'eau sont en cours. Appareils pour détermination continue oxydes d'azote, de soufre et de carbone, ozone, ammoniac, chlore et hydrocarbures volatils. Dans les stations automatisées de contrôle de la pollution de l'eau, la température, le pH, la conductivité électrique, la teneur en oxygène, les ions chlorure, le fluor, le cuivre, les nitrates, etc. sont mesurés.

Le système information-analytique du CPS "Suivi-Analyse" vous permet de contrôler le processus de dédouanement dans le domaine de la nomenclature, du coût, du poids des marchandises dédouanées et du calcul des droits de douane.

"Monitoring-Analysis" met en œuvre le processus d'intégration de diverses sources d'informations (GTE DB, TP NSI DB, USRLE DB, EGRN DB) et utilise ensuite les données accumulées (agrégées) pour générer des rapports et des certificats de différentes formes.

"Suivi-Analyse" remplit les fonctions suivantes :

– donner accès au CBD du CCD, ainsi qu'au CBD des ordres de réception douanière (TPO) ;

- offrant la possibilité de créer et d'éditer des conditions qui limitent la sélection de données à partir du GTD CDB ;

– affichage visuel et impression des informations du rapport;

– correction des rapports reçus dans Microsoft Excel.

Les informations sur les activités des autorités douanières dans le domaine du dédouanement des moteurs à turbine à gaz sont présentées en Suivi-Analyse selon différents critères, notamment :

– coût, poids et nomenclature des produits transformés ;

- les paiements courus ;

– le pays d'origine et le pays de destination des marchandises transportées ;

– participants au dédouanement (autorités douanières, inspecteurs des douanes, participants à une activité économique étrangère);

– la dynamique des processus de dédouanement.

Le "Suivi-Analyse" permet de recevoir à la fois des données générales sur le dédouanement des marchandises, et des informations détaillées sur chacun des acteurs de l'activité économique étrangère, un entrepôt spécifique et un inspecteur des douanes.

De plus, "Suivi-Analyse" donne accès (analyse et contrôle) aux processus de livraison des marchandises sous contrôle douanier.

Suivi-Analyse » a une structure prononcée à trois niveaux. L'utilisateur (via Internet Explorer) envoie une requête au serveur WWW. Le serveur WWW envoie la demande au SGBD ORACLE. Le SGBD traite la demande et la renvoie au serveur WWW.

Le serveur WWW, à son tour, convertit les données reçues en une page HTML et renvoie le résultat à l'utilisateur. Par conséquent, toutes les mises à jour Logiciel CPS "Monitoring-Analysis" se produit sur le serveur WWW et dans le SGBD ORACLE. Les modifications du logiciel deviennent alors disponibles pour l'utilisateur.

- TPO CBD - suivi des processus de dédouanement des déchets solides pour TPO CBD ;

- CBD DKD - suivi des processus de livraison des marchandises par le contrôle douanier (accès à la base de données "Delivery-CBD");

– Recherche dans USRN, USRLE - recherche d'informations sur les personnes morales - participants aux processus de dédouanement.

3. Informations générales sur AS adppr "Analytics-2000

La base de données UAIS du Service fédéral des douanes de Russie stocke et traite d'énormes quantités d'informations sur divers aspects de l'activité douanière, y compris des copies électroniques des déclarations de fret en douane (CCD) et des reçus douaniers (enregistrés par les douanes russes depuis 1991). du volume de la base de données est en moyenne de 600 000 enregistrements par trimestre (environ 2,5 millions par an). Cet ensemble de données contient les informations les plus précieuses sur l'activité économique étrangère de la Russie.

Des volumes importants d'informations sur l'activité économique étrangère de la Russie nécessitent des outils de traitement efficaces pour fournir des processus d'aide à la décision pour la gestion des activités douanières.

La première étape de la création d'un système d'aide à la décision (DSS) à grande échelle au niveau de l'entreprise a été le traitement d'un système d'analyse de données multivariées en ligne de copies électroniques de documents douaniers, qui fournit un nouveau niveau d'analyse de données et des indicateurs de performance incomparables par rapport à l'analyse statistique.

Objectifs du système de création du système "Analytics-2000":

– réduction du temps et des coûts de main-d'œuvre nécessaires pour obtenir des informations agrégées ;

- augmenter la productivité des employés du Service fédéral des douanes;

– améliorer la qualité des données analytiques délivrées à la demande des organismes supérieurs ;

- permettant aux cadres supérieurs et intermédiaires, ainsi qu'aux analystes, de naviguer dans d'énormes quantités de données et de sélectionner les informations nécessaires à la prise de décision ;

– fourniture d'une représentation graphique des données.

La cellule de veille informationnelle et analytique exerce sa fonction principale, puisque pour rendre raisonnable décisions de gestion il est important que les autorités compétentes analysent et évaluent l'état de l'installation et la dynamique de ses indicateurs de performance. Des informations efficaces et un support analytique pour résoudre les tâches nécessaires peuvent être fournis par des systèmes d'automatisation des activités analytiques des spécialistes des organismes gouvernementaux, organisant les processus de collecte, de stockage et de traitement des informations. Le concept de tels systèmes pour une large classe d'objets gérés devrait être basé sur la technologie moderne de stockage de données intégré et le traitement analytique approfondi des informations accumulées sur la base des technologies de l'information modernes.

Comme indiqué précédemment, les sources traditionnelles et généralement acceptées d'informations primaires sont les rapports statistiques, la comptabilité et la comptabilité de gestion, les rapports financiers, les questionnaires, les entretiens, les enquêtes, etc.

L'étape de traitement analytique et statistique des informations primaires structurées relève également de quelques approches traditionnelles généralement admises. L'émergence de ces approches et leur intégration dans le système étaient dues à la nécessité objective d'automatiser le travail comptable et statistique afin de refléter les processus se produisant dans le domaine analysé de manière aussi précise, qualitative et opportune que possible, ainsi que d'identifier leurs tendances caractéristiques.

L'automatisation du travail statistique s'est traduite par la création et l'exploitation de systèmes d'information statistique automatisés: dans les années 1970 - le système automatisé de statistiques d'État (ASDS), et depuis 1988 - dans la conception d'un système d'information statistique unifié (ESIS). L'objectif principal de ces développements était la collecte et le traitement des informations comptables et statistiques nécessaires à la planification et à la gestion économie nationale sur le socle application large méthodes économiques et statistiques, matériel informatique et organisationnel, systèmes de communication dans les organismes statistiques de l'État.

Dans l'aspect structurel-territorial, l'ASDS était strictement hiérarchique, avait quatre niveaux : union, républicain, régional, district (ville). A chaque niveau de traitement de l'information, elle a été réalisée afin de mettre en œuvre des tâches, tout d'abord, à ce niveau.

Dans l'aspect fonctionnel, les sous-systèmes fonctionnels et de support sont distingués dans ASDS. Ces sous-systèmes, quel que soit le contenu des tâches statistiques spécifiques, mettaient en œuvre les fonctions de collecte et de traitement des informations statistiques, d'analyse statistique complexe, de suivi de la performance des indicateurs, d'obtention des données statistiques nécessaires à la planification opérationnelle, soumission en temps voulu aux organes directeurs de toutes les données statistiques nécessaires. Du point de vue de l'utilisateur, les tâches de surveillance sont divisées en :

les tâches courantes liées au traitement des données de reporting statistique aux niveaux structurels et territoriaux concernés de l'ASDS ;

tâches des services d'information et de référence; tâches d'analyse économique approfondie.

Tâches réglementaires associées au traitement des données de rapports statistiques aux niveaux ASDS. En règle générale, chaque tâche réglementaire est associée au traitement des données d'une forme spécifique de déclaration statistique ou de plusieurs formes de déclaration dont la signification est étroitement liée. La solution de tels problèmes est réalisée par des complexes de traitement électronique de l'information, qui sont un ensemble d'outils logiciels, techniques et organisationnels utilisant des réseaux d'informations locaux.

Les tâches des services d'information et de référence prévoient la formation, sur demande, des données statistiques nécessaires à la préparation rapide des rapports, des notes analytiques et des références, ne sont pas réglementées dans leur contenu. leurs solutions sont fournies à l'aide d'une banque de données automatisée sous la forme d'un système d'accumulation, de stockage, de recherche, de traitement et d'émission d'informations à la demande des utilisateurs sous la bonne forme.

Les missions d'analyse économique approfondie reposent sur l'utilisation de :

séries dynamiques (construction de polygones, d'histogrammes de fréquences et de lignes cumulées, sélection de tendances à partir d'une classe de fonctions sélectionnée);

lissage de la série temporelle initiale, diagnostic basé sur la tendance et le modèle autorégressif sélectionnés, analyse des résidus pour l'autocorrélation et la normalité)

régression par paires (détermination des équations de régression linéaires et non linéaires, évaluation de leurs caractéristiques statistiques, sélection de la forme de connexion optimale);

régression multiple (détermination d'une matrice de coefficients de corrélation appariés, détermination d'équations de régression linéaire multiple),

analyse factorielle (obtention d'un modèle linéaire, décrit par un petit nombre de facteurs, calcul des valeurs des "charges sur les facteurs communs" et des facteurs les plus communs, interprétation graphique des facteurs sur le plan et dans l'espace) ;

analyse de corrélation (obtention de matrices de corrélation, moyennes et écarts-types).

La forme organisationnelle et technologique de résolution de cette classe de problèmes est constituée de complexes analytiques, qui sont un ensemble de progiciels d'application axés sur la mise en œuvre de méthodes mathématiques et statistiques. Pour couvrir de larges plages temporelles de données analysées, une forme de registre de suivi est utilisée sur la base de registres automatisés, qui permettent de sauvegarder et de traiter des ensembles importants de données organisées

sous forme de tableaux indépendants de la structure des rapports statistiques pour chaque objet ou un groupe spécifique d'objets de surveillance. La forme de registre de suivi est particulièrement efficace pour les informations statistiques qui caractérisent des objets relativement stables; par conséquent, les registres peuvent être considérés comme un classeur automatisé de groupes d'unités homogènes d'observation statistique d'un certain type. Son application permet à l'utilisateur, en remplissant un formulaire de demande unifié, de recevoir diverses données caractérisant l'état d'un objet.

Une orientation importante dans l'amélioration du suivi statistique consistait à accroître le contenu, la fiabilité et l'efficacité des données de notification sur la base d'une combinaison de rapports actuels, d'enregistrements ponctuels, d'enquêtes sélectives et monographiques, ainsi qu'à optimiser les flux d'informations. Un accent particulier est mis sur l'amélioration des méthodes économiques et mathématiques d'analyse et de prévision de l'évolution des systèmes. Par ailleurs, un progrès significatif dans l'évolution des méthodes de surveillance a été l'utilisation des nouvelles technologies de l'information, à savoir :

développement d'une technologie complexe de traitement de l'information utilisant des banques de données et des réseaux informatiques;

création de moyens de modélisation informatique de systèmes informatiques;

développement de types intellectualisés d'interface utilisateur final avec un ordinateur basé sur des postes de travail automatisés impliquant l'utilisation de systèmes experts.

Les nouvelles technologies de l'information ont considérablement élargi la possibilité d'un accès automatisé direct aux informations statistiques nécessaires, diversifié la composition et le contenu des travaux analytiques. Il est devenu possible d'intégrer un système de suivi des informations statistiques avec d'autres systèmes d'information de tous les niveaux de gestion des canaux de télécommunications.

Cependant, toutes les méthodes envisagées de traitement analytique et statistique des données présentent un inconvénient important. L'ensemble des données y est traité comme un ensemble disparate, c'est pourquoi il n'y a pas d'unité du système. Entre l'un ou l'autre flux d'informations, seule une connexion artificielle peut être établie en les regroupant dans un formulaire de déclaration spécifique. Cependant, il est impossible de prévoir toutes les formes pour tous les phénomènes et connexions possibles. Méthodes traditionnelles le traitement analytique et statistique des données ne tient pas compte du fait qu'il existe un lien naturel entre tout type de phénomènes et d'événements, basé sur des indicateurs universels inhérents à chacun d'eux. En présence d'un système aussi naturel

connexions, il devient possible de comparer au phénomène considéré tous les facteurs, événements, données qui lui sont associés sous une forme explicite ou implicite. La surveillance basée sur cette approche se caractérise par l'exhaustivité de la couverture des relations de cause à effet des facteurs d'influence mutuelle des tendances latentes. Tout cela est considéré dans une unité systémique inséparable.

Cette lacune peut être éliminée grâce à l'approche récemment très courante du problème du traitement analytique et statistique des données basée sur la dernière technologie OLAP - Online Analytical Processing (analyse opérationnelle des données).

Le terme OLAP fait référence aux méthodes qui permettent aux utilisateurs de bases de données de générer des informations descriptives et comparatives sur les données en temps réel et d'obtenir des réponses à diverses requêtes analytiques. Les principes qui définissent le concept OLAP incluent :

représentation conceptuelle multidimensionnelle - les bases de données OLAP doivent prendre en charge la représentation multidimensionnelle des données, prévoit les opérations classiques de fractionnement et de rotation d'un cube de données conceptuelles ;

transparence - les utilisateurs n'ont pas besoin de savoir qu'ils utilisent une base de données OLAP. Ils peuvent utiliser les outils qui leur sont familiers pour obtenir les données et prendre les bonnes décisions. ils n'ont pas non plus besoin de savoir quoi que ce soit sur la source des données ;

disponibilité - les outils logiciels doivent choisir et communiquer avec la meilleure source de données pour former une réponse à une demande donnée. Ils doivent fournir un mappage automatique de leur propre schéma logique à diverses sources de données hétérogènes ;

performances cohérentes : les performances doivent être pratiquement indépendantes du nombre de dimensions dans la requête. Les modèles système doivent être suffisamment puissants pour gérer toutes les modifications apportées au modèle en question ;

prise en charge de l'architecture client-serveur - les outils OLAP doivent pouvoir fonctionner dans un environnement client-serveur, car il est supposé que le serveur de base de données multidimensionnel doit être accessible à partir d'autres programmes et outils ;

égalité de toutes les dimensions - chaque dimension de données doit être équivalente à la fois dans la structure et dans les capacités opérationnelles. La structure de données sous-jacente, les formules et les formats de rapport ne doivent pas se concentrer sur une dimension de données en particulier ;

traitement dynamique des matrices creuses - les modèles multidimensionnels typiques peuvent facilement accéder à de grands ensembles

références de cellules, dont beaucoup n'ont pas de données à un moment donné. Ces valeurs manquantes doivent être stockées de manière efficace et ne pas nuire à l'exactitude ou à la rapidité de la récupération des informations ;

prise en charge de plusieurs quiz - Les outils OLAP doivent soutenir et encourager le travail de groupe et le partage d'idées et d'analyses entre les utilisateurs. Pour ce faire, il est très important d'avoir un accès multi-utilisateurs aux données ;

prise en charge des opérations entre différentes dimensions. Toutes les opérations multidimensionnelles (par exemple, l'agrégation) doivent être définies et mises à disposition de manière à être exécutées de manière uniforme et cohérente, quel que soit le nombre de dimensions ;

gestion intuitive des données - les données fournies à l'utilisateur-analyste doivent contenir toutes les informations nécessaires à une navigation efficace (formation de tranches, changements dans le niveau de détail de la présentation des informations) et à l'exécution des requêtes pertinentes ;

rapports flexibles - l'utilisateur a la possibilité d'extraire toutes les données dont il a besoin et de les former sous la forme dont il a besoin ;

dimensions et niveaux d'agrégation illimités : le nombre de dimensions prises en charge ne doit pas être limité.

L'utilisation de systèmes basés sur la technologie OLAP permet de :

organiser un référentiel d'informations unique basé sur des données statistiques et autres rapports ;

fournir un accès simple et efficace aux informations de stockage avec une différenciation des droits d'accès

fournir la possibilité d'un traitement analytique opérationnel des données stockées, d'une analyse statistique;

rationaliser, standardiser et automatiser la création de formulaires rapports analytiques avec affichage des données sous une forme donnée.

Maison trait distinctif et un avantage important de la présentation des données multidimensionnelles par rapport aux techniques d'information traditionnelles est la possibilité d'une analyse conjointe Grands groupes paramètres en connexion mutuelle, ce qui est important dans l'étude de phénomènes complexes.

La technologie OLAP réduit considérablement le temps de collecte et d'analyse des informations primaires nécessaires à la prise de décisions dans un domaine particulier de l'activité humaine, et augmente également la visibilité et le contenu informatif des rapports sur les processus et les phénomènes se produisant dans ces domaines.

Les systèmes OLAP vous permettent d'accumuler de grandes quantités de données collectées à partir de diverses sources. Ces informations sont généralement

Avant de créer un tel système, trois questions principales doivent être examinées et clarifiées :

collecter des données et comment modéliser conceptuellement les données et gérer leur stockage ; comment analyser les données ;

comment charger efficacement des données à partir de plusieurs sources indépendantes.

Ces problèmes peuvent être corrélés avec les trois composants principaux du système d'aide à la décision : le serveur d'entrepôt de données, les outils de traitement de données analytiques en ligne et les outils de réapprovisionnement de l'entrepôt de données.

L'organisation des entrepôts d'informations faisant l'objet d'autres disciplines, nous n'aborderons que la question du traitement analytique des données. Il existe actuellement un certain nombre d'outils OLAP qui peuvent être utilisés pour analyser les informations. Il s'agit de produits logiciels tels que MicroStrategi 7 et WebIntelligence, Cognos Powerplay, AlphaBlox, etc. Nous examinerons ces produits en fonction des critères suivants :

facilité d'utilisation - le produit logiciel doit être suffisamment simple pour un utilisateur qui n'a pas de formation particulière ;

interactivité - l'outil logiciel doit implémenter fonctions interactives, y compris : parcourir les documents, mettre à jour dynamiquement les documents existants, donner accès aux dernières informations, exécuter dynamiquement des requêtes sur les sources de données, "explorer les données" de manière dynamique et illimitée ;

fonctionnalité - l'application doit fournir les mêmes capacités que les homologues client/serveur traditionnels ;

accessibilité - les informations doivent être accessibles pour n'importe quel appareil et lieu de travail, et la partie client doit être petite afin de satisfaire les différents niveaux de bande passante du réseau utilisateur et de répondre à la technologie standardisée ;

architecture - ce critère caractérise les aspects de la mise en œuvre logicielle du produit ;

indépendance vis-à-vis des sources de données - l'application doit donner accès à des documents de tout type et fournir un accès interactif à des bases de données relationnelles et multidimensionnelles,

performances et évolutivité - pour garantir les performances et l'évolutivité de l'application, il est nécessaire de mettre en œuvre un accès universel aux bases de données, la possibilité de mettre en cache les données par le serveur, etc.

sécurité - aspects de l'administration des applications pour fournir différents droits d'accès à différentes catégories d'utilisateurs ;

coût de mise en œuvre et d'administration - le coût de mise en œuvre d'un produit OLAP par utilisateur devrait être nettement inférieur à celui des produits traditionnels.

MicroStrategi 7 et:-un ensemble de produits logiciels avec un large éventail de fonctions, construit sur une architecture serveur unifiée. L'environnement utilisateur est implémenté dans Misgo-Strategi Web Professional.

Les utilisateurs se voient proposer une gamme de fonctions statistiques, financières et mathématiques pour des analyses OLAP et relationnelles complexes. Tous les utilisateurs ont accès à des informations agrégées et détaillées (au niveau de la transaction). Vous pouvez effectuer de nouveaux calculs, filtrer les données du rapport, faire pivoter et ajouter des totaux intermédiaires et modifier rapidement le contenu du rapport.

La fonctionnalité principale est obtenue par les moyens suivants :

MicroStrategi 7 et OLAP Services - interface avec des produits tiers ;

Technologie Intelligent Cube - simplifie l'analyse et le déploiement en fournissant des informations récapitulatives pour une consultation en ligne rapide ;

MicroStrategi Narrowcaster - Permet aux utilisateurs d'envoyer des métriques ou de les payer via une interface Web. Les utilisateurs peuvent envoyer leurs rapports par e-mail, planifier la transmission des rapports, les publier dans des groupes de travail et les exporter aux formats Excel, PDF ou HTML.

Ce produit offre une prise en charge et une intégration multiplateformes, la portabilité vers Unix, la prise en charge de serveurs d'applications tiers.

Le produit est basé sur l'architecture XML. Les utilisateurs peuvent intégrer le XML généré par MicroStrategi Web dans leurs applications ou le formater comme ils le souhaitent.

Le client léger, implémenté au format HTML, élimine les problèmes de compatibilité des navigateurs, se déploie à travers tous les pare-feu. L'apparence et les fonctions du programme peuvent être personnalisées pour des besoins spécifiques. Vous pouvez intégrer MicroStrategi Web dans d'autres applications exécutées sur le réseau.

Les ordinateurs exécutant MicroStrategi Web peuvent être mis en cluster, offrant évolutivité et fiabilité. Ajout fourni équipement supplémentaire. si

Si une tâche échoue, elle est transférée vers un autre ordinateur du même cluster.

Les données sont protégées au niveau de la cellule à l'aide de filtres de sécurité et de listes de contrôle d'accès. La sécurité du trafic Web est assurée par une technologie de cryptage des données au niveau du transport - SSL (Secire SocxeT Level - le niveau des sockets sécurisés).

intelligence web-Produit Web pour la création de requêtes, de rapports et d'analyse de données. Fournit aux utilisateurs du réseau (intranet et extranet) un accès sécurisé aux données pour une exploration et une gestion plus poussées. Il met des capacités d'analyse à la disposition de diverses catégories d'utilisateurs. Une large gamme d'outils d'informatique décisionnelle est fournie, y compris des rapports complexes, des calculs, des filtres, des recherches approfondies et des agrégations.

WebIntelligence offre les fonctionnalités suivantes :

mise en forme et impression de rapports en mode conception visuelle ;

rapports bagatoblock. Dans les rapports complexes, afin de transmettre des informations complètes, il est parfois nécessaire de placer plusieurs tableaux ou graphiques à la fois. Pour ce faire, WebIntelligence offre la possibilité d'ajouter plusieurs blocs et diagrammes à un seul rapport ;

la possibilité de détailler les données en mode interactif.

Le produit fournit un certain nombre de fonctions :

accès aux données stockées à la fois dans des bases de données relationnelles traditionnelles et sur un serveur OLAP ;

fonctions d'analyse de données ;

capacité à partager des informations. WebIntelligence est un client "léger" qui ne nécessite pas l'installation et la maintenance d'un logiciel d'application ou d'un middleware de base de données côté client. Lors de l'installation de la partie client, il est possible de sélectionner une technologie. Le déploiement sur les plates-formes Microsoft Windows et Unix est fourni.

Avec WebIntelligence, vous pouvez explorer et analyser diverses sources de données OLAP et partager des données OLAP et relationnelles.

Le produit est personnalisé pour s'adapter au mieux structure d'entreprise n'importe quel objet.

WebIntelligence peut s'exécuter sur un seul serveur ou sur plusieurs machines NT ou Unix. Des serveurs peuvent être ajoutés au système selon les besoins, si une panne survient sur l'un des composants, l'autre est automatiquement utilisé. L'équilibrage de charge pondéré sur plusieurs serveurs optimise les ressources système et garantit des temps de réponse rapides.

WebIntelligence utilise diverses technologies de sécurité de l'information. Le cas échéant, les composants sont identifiés à l'aide de la technologie de certificat numérique. Le protocole de transfert hypertexte est utilisé pour fonctionner avec divers systèmes de protection de réseau.

L'application dispose d'une interface Web standard. Les fonctionnalités de base sont prises en charge (récupération des données avec des dimensions et des valeurs spécifiées, "exploration" des données, tableaux croisés imbriqués, calculs, activation/désactivation de l'affichage des lignes, des colonnes et des graphiques ; filtres, tri) pour l'affichage, l'exploration, la création de rapports et la publication OLAP données en mode interactif.

Cognos Powerplay fournit les fonctionnalités suivantes : Application HTML/JavaScript qui fournit un accès universel à un utilisateur exécutant Netscape Navigator version 3.0 ou supérieure ou Microsoft Internet Explorer ;

accès aux données OLAP de tout utilisateur de l'objet ; créer et publier des rapports BPM (Business Performance Management) sous forme de documents PDF pour le portail Cognos Upfront, permettant aux utilisateurs d'accéder aux données d'entreprise les plus importantes sur le Web ;

la conversion des données du format PDF en rapports dynamiques, leur recherche ultérieure et le transfert des résultats vers Upfront ;

le serveur supporte les plateformes : Windows NT, Windows 2000 et supérieur, SUN Solaris, HP/UX, IBM AIX.

Grâce au support du protocole SSL, PoverPlay garantit la sécurité des données transmises via le Web. De plus, en définissant des classes d'utilisateurs, les administrateurs système peuvent contrôler leur accès à la fois aux cubes locaux et au shell du portail Web. Ces classes sont stockées dans un composant logiciel spécial LDAP (Light Directory Access Protocol) qui est responsable de gestion centralisée la sécurité de l'ensemble du système, ainsi que pour l'intégration avec la protection actuelle.

L'utilisation de HTML pour implémenter les emplacements des clients garantit que le serveur PoverPlay fonctionne dans un environnement sécurisé. Cela garantit un déploiement sécurisé des applications pour les clients, les partenaires et les fournisseurs.

Alphablox- middleware qui fournit des outils et des blocs de construction pour travailler sur le Web. Cela élimine les complexités liées à la sécurisation des connexions réseau aux bases de données, à l'autorisation et au formatage des données.La plate-forme analytique AlphaBlox est mise en œuvre sur la base d'une architecture standardisée compatible I2EE.

Les produits AlphaBlox sont conçus pour effectuer des calculs analytiques à l'intérieur et à l'extérieur de l'installation.

Les composants Java (Biox) présentent un intérêt particulier. A partir de ces composants, vous pouvez créer une application Web analytique. L'une des tâches fastidieuses de la création d'un produit Web OLAP consiste à afficher et à formater les données dans le navigateur. Très souvent, les données doivent être présentées sous forme de tableau ou de graphiques. Lors de la création d'un programme à l'aide d'AlphaBlox, vous pouvez y insérer n'importe quel nombre de ces composants Java et les personnaliser pour effectuer les tâches souhaitées en définissant certains paramètres des applets, contrôlant ainsi l'apparence et les fonctions des composants. Ce produit logiciel offre les fonctionnalités suivantes : accès à l'information - les données sont extraites de diverses bases de données relationnelles et multidimensionnelles ;

requêtes et analyse - les composants exécutent des requêtes simples et complexes sur diverses sources de données, sans avoir besoin de programmation CQL ;

présentation - la capacité de présenter des données dans différents formats (sous forme de rapports, tableaux, graphiques).

Les composants Java sont modulaires et réutilisables. ils peuvent être utilisés pour mettre en œuvre des capacités d'analyse pour une variété de fonctions commerciales. Parce qu'ils sont contrôlés par un ensemble d'options, leurs propriétés peuvent être modifiées à l'aide d'un éditeur de texte. Cela offre une flexibilité dans le développement et la mise à niveau de la solution analytique. Les composants peuvent être personnalisés pour répondre aux besoins spécifiques de l'entreprise et réutilisés pour déployer des applications supplémentaires dans d'autres domaines d'activité. Les développeurs d'applications peuvent écrire du code supplémentaire dans JSP, JavaServlets ou JavaScript.

Les solutions AlphaBlox utilisent les services fournis par le serveur d'application et le Java Runtime Environment (JRE), les extensions Java ou les extensions personnalisées développées pour cette plate-forme.

Le cadre d'application d'AlphaBlox est basé sur des normes et permet l'intégration avec les systèmes d'exploitation existants, l'infrastructure transactionnelle et les systèmes hérités. Fournit aux utilisateurs un accès aux données provenant de diverses sources et à leur analyse ultérieure.

AlphaBlox utilise des ressources et des capacités de serveur d'applications standard, y compris le traitement/la mise en cache http et la gestion de la mémoire/des processus, ainsi que l'intégration avec les serveurs Web. De plus, l'architecture compatible 12EE élimine les mises à jour de page inutiles et permet à la logique de base de s'exécuter sur le serveur.

AlphaBlox utilise le même modèle de sécurité et le même serveur d'applications mis en œuvre à l'aide des fonctionnalités standard de la plate-forme J2EE. Cela élimine la nécessité de créer un modèle indépendant du mécanisme de protection.

La facilité de déploiement est l'un des principaux avantages d'une application Web. Cela s'applique pleinement aux applications AlphaBlox. Cependant, ils nécessitent certaines versions de navigateurs et la plate-forme Java, tandis que le client léger HTML fonctionne dans la plupart des navigateurs.

L'analyse des données opérationnelles alimentée par la technologie OLAP permet aux analystes, aux gestionnaires et aux cadres de comprendre les données en utilisant un accès fixe, partagé et interactif à une grande variété de formats de données possibles qui ont été obtenus à partir de données brutes pour refléter la position réelle de l'objet d'une manière compréhensible pour les utilisateurs. La fonctionnalité OLAP se caractérise par une analyse multidimensionnelle dynamique des données récapitulatives d'objets nécessaires pour aider l'utilisateur final avec des actions analytiques, y compris le calcul et la modélisation appliqués aux données en analysant une tendance sur des intervalles de temps successifs, en découpant un multiplicateur de données pour l'affichage sur un écran, en modifiant le niveau de détail de la présentation des informations dans des niveaux plus profonds de généralisation et similaires.

Les outils OLAP sont axés sur la fourniture d'une analyse d'informations multidimensionnelle. Pour ce faire, des modèles multidimensionnels de stockage et de représentation des données sont utilisés. Les données sont organisées en cubes (ou hypercubes) définis dans un espace multidimensionnel, composé de dimensions individuelles. Chaque dimension comprend plusieurs niveaux de détail. Les opérations OLAP typiques incluent la modification du niveau de détail dans la présentation des informations (déplacement vers le haut et vers le bas de la hiérarchie des dimensions), la sélection de certaines parties du cube et la réorientation de la vue des données multidimensionnelles à l'écran (obtention d'un tableau croisé dynamique).

Pour les bases de données OLAP, le benchmark ARV-1 a été développé. Ce test simule une situation réelle pour le logiciel serveur OLAP. La norme définit un ensemble de dimensions qui définissent la structure logique. La structure logique de la base de données se compose de six dimensions : temps, scénario, mesure, produit, client et canal. Le benchmark ne fournit pas de modèle physique spécifique : les données d'entrée sont fournies au format de fichier ASCII. Les opérations de test modélisent soigneusement les opérations OLAP standard sur de grandes quantités de données chargées séquentiellement à partir de sources internes ou externes. Ces opérations comprennent l'agrégation d'informations, l'exploration hiérarchique des données, de nouveaux calculs de données basés sur des modèles commerciaux, etc.

Les possibilités de la technologie OLAP sont considérées comme la base de l'organisation et de l'analyse multidimensionnelle des informations de surveillance. Regardons les étapes de ce processus.

Avant que les informations puissent être chargées dans une base de données de surveillance multidimensionnelle (MDB), elles doivent être extraites de diverses sources, nettoyées, transformées et consolidées (Figure 1.3). À l'avenir, ces informations devraient être périodiquement mises à jour.

Riz. 1.3.

L'extraction de données est le processus d'extraction de données à partir de bases de données opérationnelles et d'autres sources. Une analyse des sources d'information disponibles montre que la plupart d'entre elles sont présentées sous forme de données tabulaires reçues sous forme électronique ou imprimée. Les moyens modernes de numérisation et de reconnaissance d'images permettent d'automatiser presque complètement cette étape de préparation des données.

Avant d'entrer des informations dans la base de données, il est nécessaire de la nettoyer. En règle générale, le nettoyage implique de remplir les valeurs manquantes, de corriger les fautes de frappe et autres erreurs de saisie de données, de définir des abréviations et des formats standard, de remplacer les synonymes par des identifiants standard, etc. Les données qui sont déterminées comme étant fausses et qui ne peuvent pas être corrigées sont rejetées.

Après avoir nettoyé les données, il est nécessaire de convertir toutes les informations reçues dans un format qui répondra aux exigences du produit logiciel (serveur OLAP) utilisé. La procédure de conversion devient particulièrement importante lorsqu'il est nécessaire de combiner des données provenant de plusieurs sources différentes. Ce processus s'appelle la consolidation.

L'étape de chargement des informations dans la BDB consiste à créer la structure de données nécessaire et à remplir ses informations obtenues aux étapes précédentes de préparation des données.

L'extraction d'informations de la BDB vous permet d'implémenter Microsoft SQL Server Analysis Services, qui est à la fois un fournisseur de données multidimensionnelles (fournisseur de données multidimensionnelles) et de données tabulaires (fournisseur de données tabulaires). Ainsi, l'exécution d'une requête renvoie soit un jeu de données multidimensionnel, soit une table normale, selon le langage de requête utilisé. Analysis Services prend en charge les extensions SQL et MDX (expressions multidimensionnelles).

Les requêtes SQL peuvent être transmises à Analysis Services à l'aide des accesseurs de données suivants :

Microsoft OLE DB et OLE DB pour OLAP ;

Microsoft ActiveX Data Objects (ADO) et ActiveX Data Objects Multidimensional (ADO MD).

OLE DB pour OLAP étend les fonctionnalités d'OLE DB pour inclure des objets spécifiques aux données multidimensionnelles. ADO MD étend ADO de la même manière.

Microsoft SQL Server Analysis Services vous permet de remplir des extensions MDX, qui fournissent une syntaxe de requête riche et puissante pour travailler avec des données multidimensionnelles stockées dans des cubes par le serveur OLAP. Analysis Services prend en charge les fonctions MDX pour définir des champs calculés, créer des cubes de données locaux et exécuter des requêtes à l'aide de tableaux croisés dynamiques(Services des tables de pilotage).

Il est possible de créer des fonctions personnalisées qui fonctionnent avec des données multidimensionnelles. L'interaction avec eux (transmission d'arguments et retour d'un résultat) se produit à l'aide de la syntaxe MDX.

Analysis Services fournit plus de 100 fonctions MDX intégrées pour définir des champs calculés complexes. Ces fonctions entrent dans les catégories suivantes : travailler avec des tableaux ; travailler avec des mesures; travailler avec des hiérarchies ; travailler avec des niveaux de hiérarchies ; fonctions logiques ; travailler avec des objets; fonctions numériques; travailler avec des ensembles; travailler avec des cordes; travailler avec des tuples.

Il est possible de créer des cubes locaux destinés à être visualisés sur des ordinateurs sur lesquels le serveur OLAP est installé. La création de cubes locaux nécessite l'utilisation de la syntaxe MDX et passe par le composant Pilot Table Services, qui est le client OLE DB du serveur OLAP. Ce composant fonctionne également hors connexion avec les cubes locaux lorsqu'il n'est pas connecté au serveur OLAP en fournissant une interface de source de données OLE DB. Les cubes locaux sont créés à l'aide des instructions CREATE CUBE et INSERT INTO.

Le langage de requête MDX, qui est une extension de SQL, vous permet d'interroger des cubes de données et de renvoyer les résultats sous forme d'ensembles de données multidimensionnels.

Tout comme en SQL normal, le créateur d'une requête MDX doit d'abord déterminer la structure de l'ensemble de données renvoyé. Dans la plupart des cas, le créateur d'une requête MDX considère le jeu de données renvoyé comme des structures multidimensionnelles. Contrairement à une requête SQL standard, qui opère sur des tables pour produire un jeu d'enregistrements bidimensionnel, une requête MDX opère sur des cubes pour produire un jeu de résultats multidimensionnel. Il convient de noter qu'une requête MDX peut également renvoyer des ensembles de données bidimensionnels, qui sont un cas particulier d'ensemble de données multidimensionnel.

Visualiser des ensembles de données multidimensionnels peut être assez difficile. Une technique de visualisation consiste à contraindre le flux à un tableau plat à deux dimensions en utilisant de nombreuses dimensions imbriquées le long d'un seul axe. Cette imbrication se traduira par des sous-titres.

Pilot Table Services, qui fait partie de Microsoft SQL Server Analysis Services, est un serveur OLAP conçu pour accéder aux données OLAP. Ce composant fonctionne comme un client Analysis Services.

Les fonctionnalités de Pilot Table Services incluent l'analyse des données, la création de cubes et la gestion optimale de la mémoire. Le composant fournit une interface aux données multidimensionnelles. Il est possible de sauvegarder des données dans un cube local sur le poste du client puis de les analyser sans se connecter à un serveur OLAP. Pilot Table Services est nécessaire pour effectuer les tâches suivantes :

établir une connexion avec le serveur OLAP en tant que composant client ;

fournir des programmes avec une interface OLE DB avec des extensions OLAP ;

fonctionnant comme une source de données tabulaire, prend en charge un sous-ensemble de SQL ;

fonctionnant comme une source de données multidimensionnelle, prend en charge les extensions MDX ;

création d'un cube de données local ;

fonctionnant comme un client OLAP de bureau mobile.

Le composant PivotTable ne peut fonctionner qu'avec une seule partition de cube locale. En outre, il ne dispose pas d'un système intégré pour gérer les niveaux de fourniture d'informations. Par conséquent, les performances de Pilot Table Services sont directement proportionnelles à la quantité de données qu'il traite.

Il convient de noter que l'interface OLAP est simple et ne nécessite pas plus de connaissances qu'un tableur. OLAP vous permet d'utiliser diverses formes de rapports, une interface pour l'analyse interactive des données et la possibilité de générer des formulaires imprimés. Cependant, par rapport aux méthodes traditionnelles de programmation et de génération de rapports personnalisés, OLAP réduit non seulement les coûts de programmation des centaines de fois, mais modifie également le principe même de la façon dont un utilisateur travaille avec un rapport.

La différence entre OLAP en tant qu'outil de reporting réside dans la capacité d'effectuer automatiquement et de manière interactive de telles opérations avec des données :

regroupement récursif de données ; calcul des sous-totaux pour les sous-groupes ; calcul des résultats finaux.

Les commandes pour effectuer ces opérations sont données par l'utilisateur lui-même. Les sections du tableau utilisé agissent comme des contrôles. Lorsque l'utilisateur modifie la forme du rapport (par exemple, déplace les barres), le système effectue des calculs de sous-totaux et affiche le nouveau rapport.

De plus, l'utilisateur peut modifier le tri et filtrer par des combinaisons arbitraires de données, voir les données en termes de pourcentage, modifier l'échelle et effectuer d'autres transformations de rapport nécessaires (ces fonctionnalités ne sont pas un attribut indispensable de la technologie OLAP, mais dépendent de l'implémentation spécifique de l'outil).

De ce fait, l'utilisateur peut indépendamment, de manière intuitive, à partir du jeu de données existant, générer tous les types de rapports possibles pour ce jeu. Cela permet de s'affranchir de la limitation séculaire des systèmes d'information, à savoir que la puissance des interfaces est toujours inférieure à la puissance de la base de données.

La technologie OLAP vous permet d'implémenter presque tous les types possibles de représentation tabulaire du contenu de la base de données. Si le produit est suffisamment flexible, la tâche du programmeur consiste à décrire la couche sémantique (dictionnaire), après quoi un utilisateur qualifié peut créer indépendamment de nouveaux cubes, en utilisant les termes du domaine qu'il connaît. D'autres utilisateurs peuvent générer des rapports pour chaque cube.

Ainsi, la technologie OLAP sert à la fois les développeurs et les utilisateurs dans tous les cas où il est nécessaire de voir des informations sous forme de rapports tabulaires dans lesquels les données sont regroupées et les totaux sont calculés pour les groupes.

L'expérience montre qu'il ne suffit pas de fournir aux utilisateurs un grand cube composé de nombreuses dimensions et faits. Cela est dû aux raisons suivantes.

Tout d'abord, à chaque instant l'utilisateur a besoin d'un rapport bien défini.

Deuxièmement, certains algorithmes de calcul des totaux sont décrits par des formules complexes, et l'utilisateur peut ne pas avoir les qualifications suffisantes pour les déterminer.

Troisièmement, un rapport OLAP peut avoir une méthode spécifique pour calculer les totaux, l'emplacement des dimensions et les conditions de tri initiales spécifiées par l'auteur du rapport.

Quatrièmement, dans de nombreux cas, il est plus facile de comprendre les données si vous ne regardez pas un tableau avec des chiffres, mais un graphique. Pour configurer un diagramme OLAP, vous devez parfois avoir une bonne imagination spatiale, car un cube avec de nombreuses dimensions doit être reflété sous la forme d'un ensemble de formes ou de lignes dans un dessin en trois dimensions. Le nombre de propriétés des composants graphiques modernes se compte par milliers, de sorte que la préconfiguration d'un diagramme ou d'un graphique pour un rapport OLAP peut prendre beaucoup de temps.

Cinquièmement, comme pour tout autre rapport, pour un rapport OLAP, sa conception efficace est importante, y compris les paramètres pour les en-têtes et les légendes, les couleurs et les polices.

Ainsi, pour une expérience utilisateur confortable, un rapport OLAP doit contenir un certain ensemble de métadonnées appliquées décrivant les algorithmes d'agrégation, les conditions préalables au filtrage et au tri, les en-têtes et les commentaires, ainsi que les règles de conception visuelle.

Lors de la visualisation des informations d'un cube multidimensionnel, un facteur important est l'ordre des dimensions en fonction de leur similitude. L'idée principale est que les mesures qui caractérisent des paramètres similaires sont situées côte à côte. Pour déterminer de telles mesures, diverses méthodes de regroupement sont utilisées, en particulier, des algorithmes heuristiques peuvent être utilisés.

La technologie d'analyse de l'information décrite n'est pas la seule possible. Mais tous sont le développement de l'intelligence d'affaires (BI), dont le but est la collecte, la systématisation, l'analyse et la présentation de l'information. Le choix d'une technologie d'analyse de l'information spécifique appartient à l'utilisateur, en tenant compte des caractéristiques de l'objet du domaine.

Page 31 sur 45

Suivi écologique et analytique de l'environnement.

Suivi écologique et analytique- surveiller la teneur en polluants de l'eau, de l'air et du sol à l'aide de méthodes d'analyse physiques, chimiques et physico-chimiques - vous permet de détecter le flux de polluants dans l'environnement, d'établir l'influence des facteurs anthropiques par rapport aux facteurs naturels et d'optimiser l'interaction de l'homme avec la nature. Alors, surveillance du sol prévoit la détermination de l'acidité, de la salinité des sols et de la perte d'humus.

Surveillance chimique - partie de l'analyse écologique, c'est un système d'observation de la composition chimique de l'atmosphère, des précipitations, des eaux de surface et souterraines, des eaux des océans et des mers, des sols, des sédiments de fond, de la végétation, des animaux et de la dynamique de la propagation des polluants chimiques. Sa tâche est de déterminer le niveau réel de pollution de l'environnement par des ingrédients hautement toxiques ; objet - soutien scientifique et technique du système d'observations et de prévisions; identification des sources et des facteurs de pollution, ainsi que le degré de leur impact ; surveiller les sources établies de polluants entrant dans l'environnement naturel et le niveau de sa pollution ; évaluation de la pollution réelle de l'environnement; prévision de la pollution de l'environnement et des moyens d'améliorer la situation.

Un tel système est basé sur des données sectorielles et régionales et comprend des éléments de ces sous-systèmes ; il peut couvrir les deux zones locales d'un même État (suivi national), et le globe dans son ensemble (surveillance globale).

Surveillance écologique et analytique de la pollution dans le cadre du système national unifié de surveillance de l'environnement. Afin d'augmenter radicalement l'efficacité du travail pour préserver et améliorer l'état de l'environnement, pour assurer la sécurité environnementale, le 24 novembre 1993, le décret du gouvernement de la Fédération de Russie n ° 1229 «sur la création de l'État unifié système de surveillance de l'environnement » (EGSEM) a été adopté. L'organisation des travaux sur la création de l'USSEM prévoit l'inclusion dans le périmètre des observations de nouveaux types et types de polluants et l'identification de leur impact sur l'environnement ; extension de la géographie de la surveillance environnementale à travers de nouveaux territoires et sources de pollution.

Les missions principales de l'EGSEM :

– développement de programmes de surveillance de l'état de l'environnement naturel sur le territoire de la Russie, dans ses différentes régions et districts;

- organisation d'observations et de mesures d'indicateurs d'objets de surveillance environnementale ;

– fiabilité et comparabilité des données d'observation à la fois dans les régions et districts individuels et dans toute la Russie;

– la collecte et le traitement des données d'observation ;

– stockage des données d'observation, création de banques de données spéciales caractérisant la situation écologique sur le territoire de la Russie et dans ses différentes régions;

– harmonisation des banques et bases de données d'informations environnementales avec les systèmes internationaux d'information environnementale ;

- évaluation et prévision de l'état des objets environnementaux et des impacts anthropiques sur ceux-ci, des ressources naturelles, des réponses des écosystèmes et de la santé publique aux changements de l'état de l'environnement humain ;

– effectuer des contrôles opérationnels et des mesures de précision des contaminations radioactives et chimiques résultant d'accidents et de catastrophes, ainsi que prévoir la situation environnementale et évaluer les dommages causés au milieu naturel ;

– mise à disposition d'informations environnementales intégrées à un large éventail de consommateurs, de mouvements sociaux et d'organisations ;

– informer les autorités sur l'état de l'environnement et des ressources naturelles, la sécurité environnementale ;

– l'élaboration et la mise en œuvre d'une politique scientifique et technique unifiée dans le domaine de la surveillance environnementale.

L'USSEM prévoit la création de deux blocs interconnectés : la surveillance des pollutions des écosystèmes et la surveillance des conséquences environnementales de ces pollutions. En outre, il devrait fournir des informations sur l'état initial (de base) de la biosphère, ainsi que l'identification des changements anthropiques dans le contexte de la variabilité naturelle.

À l'heure actuelle, les observations des niveaux de pollution de l'atmosphère, des sols, des eaux et des sédiments de fond des rivières, des lacs, des réservoirs et des mers en termes d'indicateurs physiques, chimiques et hydrobiologiques (pour les masses d'eau) sont effectuées par les services de Roshydromet. Le suivi des sources d'impact anthropique sur le milieu naturel et des zones de leur impact direct sur le monde animal et végétal, la faune et la flore terrestres (hors forêts) est assuré par les services compétents du ministère des ressources naturelles. La surveillance des terres, de l'environnement géologique et des eaux souterraines est effectuée par des subdivisions du Comité de la Fédération de Russie sur les ressources foncières et la gestion des terres et du Comité de la Fédération de Russie sur la géologie et l'utilisation du sous-sol.

En 2000, le système Roshydromet exploitait 150 laboratoires de chimie, 41 laboratoires de groupe pour l'analyse d'échantillons d'air dans 89 villes avec un contrôle hors laboratoire. Des observations de la pollution atmosphérique ont été effectuées à 682 postes fixes dans 248 villes et villages de la Fédération de Russie, et le sol sur les terres agricoles n'a pas été laissé sans attention.

Les eaux de surface des terres sont surveillées dans 1175 cours d'eau et 151 réservoirs. L'échantillonnage est effectué en 1892 points (2604 sites). En 2000, 30 000 échantillons d'eau ont été analysés pour 113 indicateurs. Des points d'observation de la pollution du milieu marin existent sur 11 mers baignant le territoire de la Fédération de Russie. Dans le système Roshydromet, plus de 3 000 échantillons sont analysés chaque année pour 12 indicateurs.

Le réseau de stations de surveillance du transport transfrontalier de polluants se concentre sur la frontière occidentale de la Russie. À l'heure actuelle, les stations Pushkinskie Gory et Pinega fonctionnent ici, qui effectuent l'échantillonnage des aérosols atmosphériques, des gaz et des précipitations.

Le contrôle de la composition chimique et de l'acidité des précipitations atmosphériques est effectué dans 147 stations des niveaux fédéral et régional. Dans la plupart des échantillons, seule la valeur du pH est mesurée en ligne. Lors du suivi de la pollution de la couverture neigeuse, les ions ammonium, la sulfatation, le benzo(a)pyrène et les métaux lourds sont également déterminés dans les échantillons.

Le système de surveillance globale du fond atmosphérique comprend trois types de stations : de base, régionales et régionales avec un programme étendu.

Six stations de surveillance de fond complexe ont également été créées, situées dans les réserves de biosphère: Barguzinsky, Central-Lesnoy, Voronezhsky, Prioksko-Terrasny, Astrakhansky et Caucasian.

Pour la surveillance des rayonnements sur le territoire du pays, en particulier dans les zones contaminées à la suite de l'accident de Tchernobyl et d'autres catastrophes radioactives, un réseau fixe et des appareils mobiles sont utilisés. Selon un programme spécial, une étude gamma aérienne du territoire de la Fédération de Russie est également effectuée.

Dans le cadre de l'USSEM, un système est en cours de création pour la détection rapide des pollutions liées aux situations d'urgence.

La surveillance écologique et analytique de la pollution dans le cadre de l'USSEM peut être divisée en trois grands blocs : la lutte contre la pollution dans les zones à impact anthropique significatif, au niveau régional, au niveau du fond.

Toutes les données des zones avec n'importe quel niveau d'impact, à la fois d'urgence et généralisé, à certains intervalles sont envoyées au centre pour la collecte et le traitement des informations. Pour un système automatisé en cours de développement, la première étape est un système local desservant une zone ou une ville distincte.

Les informations provenant des stations mobiles et des laboratoires fixes sur la pollution de l'environnement par les dioxines et les composés apparentés sont traitées, triées et transmises au niveau suivant - aux centres d'information régionaux. De plus, les données sont envoyées aux organisations intéressées. Le troisième niveau du système est le centre de données principal, qui résume les informations sur la pollution de l'environnement à l'échelle nationale.

L'efficacité des systèmes automatisés de traitement des informations environnementales et analytiques augmente sensiblement lors de l'utilisation de stations automatiques de surveillance de la pollution de l'eau et de l'air. Des systèmes locaux automatisés de contrôle de la pollution de l'air ont été créés à Moscou, Saint-Pétersbourg, Tcheliabinsk, Nizhny Novgorod, Sterlitamak, Ufa et d'autres villes. Des tests expérimentaux de stations de contrôle automatisé de la qualité de l'eau dans les lieux de rejet et de prise d'eau sont en cours. Des instruments ont été créés pour la détermination en continu des oxydes d'azote, de soufre et de carbone, d'ozone, d'ammoniac, de chlore et d'hydrocarbures volatils. Dans les stations automatisées de contrôle de la pollution de l'eau, la température, le pH, la conductivité électrique, la teneur en oxygène, les ions chlorure, le fluor, le cuivre, les nitrates, etc. sont mesurés.