Toutes les fonctionnalités @Risk

 

 

simulationConvivialité Excel

Véritable compagnon de Microsoft Excel, @RISK s’intègre complètement au tableur. Parcourir, définir et analyser : tout est possible, sans jamais quitter Excel.

De véritables 
fonctions Excel
Les fonctions @Risk se comportent exactement comme les fonctions naturelles du tableur. Les fenêtres @RISK sont toutes liées, directement, aux cellules du tableur, de sorte que les changements apportés à 
l’une se répercutent automatiquement dans l’autre.  

Une navigation simple
Les graphiques @RISK se rattachent à leur cellule correspondante par le biais de fenêtres légendes. La simplicité du glissement-déplacement, les menus contextuels accessibles d’un clic droit et la barre d’outils @RISK font de l’apprentissage et de la navigation 
de @RISK un simple jeu d’enfant.

 

 
.

 

Exécuter la simulation

 

Modéliser, simuler, comprendre

L’exécution d’une analyse @RISK s’effectue en trois étapes toutes simples.

Étape 1 : Configurer le modèle
On commence par remplacer les valeurs incertaines du tableur par des fonctions de distribution de probabilités @RISK, telles que RiskNormal, RiskUniform, ou l’une de plus de 35 autres fonctions @RISK. Ces fonctions @RISK représentent simplement une plage de valeurs différentes possibles pour une cellule, plutôt que de la limiter à une seule possibilité.
On choisit la distribution dans une galerie graphique, ou on la définit sur la base des données historiques d’une entrée donnée. On peut même combiner plusieurs distributions à l’aide de la fonction RiskCompound.
La Bibliothèque @RISK permet les échanges de fonctions de distribution avec d’autres utilisateurs. Il est même possible de désactiver les fonctions @RISK par permutation pour les partager avec les collaborateurs qui ne disposent pas de @RISK.

On sélectionne ensuite les sorties, c'est à dire les cellules dont les valeurs nous intéressent. Il peut s’agir d’un profit potentiel, d’un calcul de rentabilité, du montant de règlement de demandes d’assurance, des chances de surmonter une maladie ou de toute autre inconnue.

Étape 2 : Exécuter la simulation
On clique sur le bouton "Simuler" et on suit, tout simplement, le processus à l’écran. @RISK recalcule le modèle des milliers de fois, en échantillonnant à chaque fois de nouvelles valeurs aléatoires des fonctions @RISK spécifiées, en les plaçant dans le modèle et en enregistrant le résultat.
Pour expliquer le processus à autrui, il suffit d’exécuter la simulation en mode "Démo" : les graphiques et les rapports s’actualisent en direct, à mesure que progresse la simulation.

Étape 3 : Cocompréhension du risquemprendre les risques
Le résultat d’une simulation est comme un regard sur une plage complète de résultats possibles, et les probabilités de les voir se réaliser. Les résultats peuvent être représentés graphiquement, sous forme d’histogrammes, diagrammes de dispersion, courbes cumulatives, boîtes de synthèse et autres formes encore. Les graphiques tornades et l’analyse de sensibilité identifient aisément les facteurs critiques.
Les résultats peuvent être collés dans Excel, Word ou PowerPoint, ou enregistrés dans la Bibliothèque @RISK en vue de leur partage avec d’autres utilisateurs de @RISK. Il est même possible d’enregistrer les résultats et les graphiques dans un classeur Excel.




 

 
.

 

Les avantages @RISK

Découvrez dans le tableau ci-dessous les avantages que proposent les fonctionnalités @Risk.

FONCTIONNALITÉS AVANTAGES
Simulation Monte Carlo Présente les issues possibles pour éviter les pièges et à identifier les créneaux
Calculs de simulation 100 % Excel Niveau ultime de précision et recours maximum aux processeurs multicœur de vitesse
Intégration transparente dans Microsoft Excel
Tout se fait sans jamais quitter le tableur ; apprentissage rapide
Barres d’outils intuitives et menus contextuels Navigation aisée – plusieurs façons d’exécuter les tâches courantes
MODÉLISATION
Palette de distributions et commande "Insérer une fonction"
Définition aisée et précise des facteurs incertains
Ajustement aux données et Distribution Artist
Recours aux données et au jugement expert pour définir les facteurs incertains.
Plus de 50 fonctions de distribution intégrées
Précision du modèle par représentation de pratiquement tous les facteurs incertains
Permutation des fonctions @RISK Désactivation (et réactivation ultérieure) des fonctions @RISK, pour permettre le partage des modèles avec les non-utilisateurs de @RISK
Intégration avec Microsoft Project
Lecture des plans de Microsoft Project dans @RISK pour Excel pour la modélisation du risque d’un projet avec un maximum de flexibilité.
Bibliothèque @RISK
Définition, réutilisation et partage de distributions personnalisées et de résultats de simulation
Fonction RiskCompound
Combinaison de deux distributions en une, pour rationaliser les modèles d’assurance et autres modèles volumineux
Distributions paramétrées en centiles Plus grande souplesse de définition de l’incertitude
Corrélation des entrées et série temporelle de corrélation Précision du modèle par représentation des dépendances entres les variables
Simulation de prévisions de série temporelle
Compréhension du risque au niveau des valeurs qui changent dans le temps.
Mode Démo et actualisation en direct
Actualisation des graphiques et des rapports en cours de simulation, pour la démonstration à autrui
Contrôle des paramètres
Personnalisation des simulations
Support multi-UC
« Division » des simulations volumineuses entre plusieurs UC ou cœurs pour réduire le temps d’exécution.
Présentation graphique de qualité, totalement personnalisable
Visualisation de l’impact du risque et présentation à autrui
Rapports Office
Tous les graphiques et diagrammes sont exportables au format graphique naturel Excel, Word ou PowerPoint, pour distribution aisée à autrui
Rapports sommaires rapides
Visualisation graphique sommaire pré-formatée en une page
Histogrammes, graphiques en aires, courbes, de synthèse, en boîte et superposés
Variété d’options graphiques pour communication aisée et précise
Graphiques « tornade » et diagrammes de dispersion
Identification visuelle des facteurs critiques et des tendances
Analyse de sensibilité et de scénario
Identification des tâches individuelles qui produisent le plus d’impact sur les résultats et des scénarios particuliers menant à certains résultats
Fonctions Six Sigma
Rapport de statistiques Six Sigma pour l’analyse de qualité
Gestion multicœur et multi-UC
Association de la simulation Monte Carlo et de techniques d’optimisation de pointe dans le but d’identifier la meilleure combinaison de facteurs donnant lieu à un résultat désiré dans des conditions incertaines.
OPTIMISATION
RISKOptimizer



 

 
.

 

Trois éditions pour répondre à tous les besoins

Découvrez dans le tableau ci-dessous les fonctionnalités disponibles selon les éditions @Risk.

  @Risk Industrial @RISK Pro @RISK Standard
Moteur de simulation avancée
40 fonctions de distribution intégrées
Galerie de distributions intégrée
Fonctions RiskCompound et Six Sigma
Variété de graphiques et tableaux de résultats
Actualisation graphique en cours de simulation
Analyse de sensibilité et de scénario
Corrélation des entrées
Ajustement aux données
 
Bibliothèque @RISK
 
Kit du développeur Excel (XDK)  
Analyse de contrainte
 
Analyse de sensibilité avancée
 
Valeur cible @RISK
 
@RISKAccelerator intégré
   
RISKOptimizer en Français    
Optimisation dans l’incertitude
   
Plages de cellules ajustables et contraintes    
Six méthodes de résolution
   
Suivi RISKOptimizer
   
Algorithmes génétiques
   
Surveillance de convergence et opérateurs génétiques    
Actualisation du modèle selon la solution originale, la meilleure ou la dernière solution    

 

 
.

 

La simulation Monte Carlo

L’analyse du risque fait partie de toutes les décisions que nous prenons. Incertitude, ambiguïté et variabilité : nous y sommes sans cesse confrontés. À l’heure même où nous disposons d’un accès sans précédent à l’information, nous ne pouvons toujours pas prédire l’avenir. La simulation Monte Carlo permet d’envisager toutes les conséquences possibles d’une décision et d’évaluer l’impact du risque, pour une meilleure approche face à l’incertitude.

 

 

utilisation de la simulation Monte Carlo

Qu’est-ce que la simulation Monte Carlo ?

La simulation Monte Carlo est une technique mathématique informatisée qui permet de tenir compte du risque dans l’analyse quantitative et la prise de décision. Les professionnels de domaines aussi diversifiés que la finance, la gestion de projet, l’énergie, la production, l’ingénierie, la recherche et le développement, les assurances, l’industrie du gaz et du pétrole, les transports et l’environnement, ont recours à cette technique.

La simulation Monte Carlo présente au responsable de la décision une plage d’issues possibles et leurs probabilités de réalisation suivant l’action choisie. Elle révèle les possibilités extrêmes (les issues des décisions les plus audacieuses et les plus prudentes), ainsi que toutes les conséquences possibles des décisions intermédiaires.

Les scientifiques chargés de la recherche sur la bombe atomique ont été les premiers à utiliser la technique, baptisée Monte Carlo d’après la célèbre ville monégasque et ses casinos. Depuis son inauguration durant la Deuxième Guerre mondiale, la simulation Monte Carlo a servi à modéliser toute une variété de systèmes physiques et conceptuels.

 

Comment fonctionne la simulation Monte Carlo ?

La simulation Monte Carlo procède à l’analyse du risque par élaboration de modèles de résultats possibles, en substituant une plage de valeurs — une distribution de probabilités — à tout facteur porteur d’incertitude. Elle calcule et recalcule ensuite ces résultats selon, à chaque fois, un ensemble distinct de valeurs aléatoires des fonctions de probabilités. Suivant le nombre d’incertitudes et les plages spécifiées pour les représenter, une simulation Monte Carlo peut impliquer, pour être complète, des milliers ou même des dizaines de milliers de calculs et recalculs. La simulation produit des distributions de valeurs d’issue possibles.

Grâce aux distributions de probabilités, les variables peuvent avoir différentes probabilités d’issues distinctes. Les distributions de probabilités décrivent l’incertitude de manière beaucoup plus réaliste dans les variables d’une analyse de risque. Les distributions de probabilités les plus fréquentes sont :

Distributions - fonctionsNormale (« courbe en cloche ») - L’utilisateur définit simplement la moyenne ou la valeur probable et un écart type pour décrire la variation autour de la moyenne. Les valeurs intermédiaires proches de la moyenne sont les plus probables. Cette distribution symétrique décrit de nombreux phénomènes naturels, tels que la taille des personnes. Les taux d’inflation et les prix de l’énergie sont deux exemples de variables généralement décrites par une distribution normale.

Normale logarithmique Les valeurs sont positivement asymétriques, et non symétriques comme dans une distribution normale. Cette distribution sert à représenter les valeurs qui ne tombent jamais sous zéro mais qui ont un potentiel positif illimité. Par exemple, les valeurs de biens immobiliers, d’actions en bourse et de réserves pétrolières sont des variables décrites par une distribution normale logarithmique.

Uniforme Toutes les valeurs ont une chance égale de se réaliser. L’utilisateur définit simplement le minimum et le maximum. Par exemple, les coûts de production ou le chiffre d’affaires que réalisera un nouveau produit peuvent être distribués uniformément.

TriangulaireL’utilisateur définit les valeurs minimum, probable et maximum. Les valeurs proches de la valeur probable sont plus susceptibles de se réaliser. Les variables d’historique des ventes par unité de temps et de niveaux de stocks peuvent être décrites par une distribution triangulaire.

PERT L’utilisateur définit les valeurs minimum, probable et maximum, comme pour une distribution triangulaire. Les valeurs proches de la valeur probable sont plus susceptibles de se réaliser, mais celles comprises entre la valeur probable et les extrêmes sont plus susceptibles de se réaliser aussi que dans une distribution triangulaire (les extrêmes ne sont pas aussi « extrêmes »). Par exemple, une distribution PERT peut décrire la durée d’une tâche dans un modèle de gestion de projet.

DiscrèteL’utilisateur définit les valeurs spécifiques susceptibles de se produire et la probabilité de chacune, concernant, par exemple, les résultats d’une action en justice : 20 % de chances d’obtenir un verdict positif ; 30 %, un verdict négatif ; 40 %, de résoudre l’affaire par transaction et 10 %, de procès nul.

Lors d’une simulation Monte Carlo, les valeurs sont échantillonnées aléatoirement depuis les distributions de probabilités en entrée. Chaque ensemble d’échantillons est désigné sous le nom d’itération et le résultat en est enregistré. La simulation Monte Carlo simulation répète l’opération des centaines ou même des milliers de fois. Le résultat est une distribution de probabilités des issues possibles. La simulation Monte Carlo donne ainsi une perspective beaucoup plus complète de ce qui pourrait se produire. Elle indique non seulement ce qui pourrait arriver, mais dans quelle mesure.

 

La simulation Monte Carlo présente plusieurs avantages par rapport à l’analyse déterministe (« ponctuelle ») :

  • Résultats probabilistes
    Les résultats indiquent non seulement ce qui pourrait arriver, mais dans quelle mesure.
  • Résultats graphiques
    Les données produites par la simulation Monte Carlo facilitent la représentation graphique des différentes issues et de leur chance de se produire. La présentation des conclusions de l’analyse en est d’autant plus simple.
  • Analyse de sensibilité
    Basée sur quelques cas seulement, l’analyse déterministe ne permet pas d’identifier facilement les variables qui affectent le plus le résultat. Dans la simulation Monte Carlo, les entrées qui produisent le plus d’effet sur les résultats se distinguent clairement.
  • Analyse de scénario
    Dans les modèles déterministes, il est très difficile de modéliser différentes combinaisons de valeurs pour différentes entrées et de voir les effets de scénarios clairement distincts. Avec la simulation Monte Carlo, l’analyste voit clairement les combinaisons de valeurs en entrée associées aux issues et dispose ainsi d’une information extrêmement utile à la poursuite de l’analyse.
  • Corrélation des entrées
    Dans la simulation Monte Carlo, il est possible de modéliser des rapports interdépendants entre les variables en entrée. Il est en effet important de représenter, pour la précision du modèle, la manière dont la hausse de certains facteurs s’accompagnent dans la réalité de celle d’autres facteurs ou, au contraire, de leur baisse.

La méthode d’échantillonnage Hypercube latin, plus précise sur la plage complète des fonctions de distribution, renforce par ailleurs la simulation Monte Carlo.

 

 
.

 

Analyse du risque

L’analyse du risque consiste à utiliser systématiquement une information disponible afin de déterminer la fréquence d’événements particuliers et l’importance de leurs conséquences.

analyse du risque

Le risque se définit généralement tel un événement négatif, comme la perte d’argent dans une entreprise ou d’importants sinistres causés par une tempête. L’analyse de risque peut cependant aussi découvrir des issues potentielles positives. En explorant l’envergure complète des issues possibles d’une situation donnée, une bonne analyse de risque peut à la fois démasquer les pièges et révéler de nouveaux horizons prometteurs.

L’analyse de risque peut être qualitative ou quantitative. L’analyse qualitative implique généralement l’évaluation « instinctive » d’une situation. Elle se caractérise par des déclarations du type : « Cela me paraît trop risqué » ou « Le rendement de l’opération sera probablement bon ». L’analyse quantitative cherche en revanche à donner des valeurs numériques aux risques, soit en fonction de données empiriques, soit par la quantification d’évaluations qualitatives. Nous nous concentrons ici sur l’analyse de risque quantitative.

 

Analyse de risque déterministe – « Au mieux, au pire, probablement »

L’analyse de risque quantitative peut s’effectuer de différentes manières. Une méthode repose sur les estimations ponctuelles, de nature déterministe. Selon cette méthode, l’analyste affecte des valeurs à des scénarios discrets et évalue l’issue de chacun. Par exemple, dans un modèle financier, l’analyste examine fréquemment trois issues distinctes : la pire des cas, le meilleur des cas et le cas le plus probable, définis, chacun, comme suit :

Au pire Tous les coûts représentent la plus haute valeur possible, et les recettes les plus faibles projections possibles. L’issue se traduit par une perte d’argent.
Au mieux
Tous les coûts représentent la plus faible valeur possible, et les recettes les meilleures projections possibles. L’issue se traduit par un gain d’argent.
Scénario probable
On choisit des valeurs intermédiaires pour les coûts et les recettes, et l’issue présente un gain d’argent modéré.

Cette approche présente plusieurs problèmes :

  • Elle n’envisage que quelques issues discrètes et omet les centaines de milliers d’autres possibles.
  • Elle donne un poids égal à chaque issue, sans chercher à évaluer la probabilité de chacune.
  • Elle ne tient pas compte de l’interdépendance entre les entrées, de l’impact de différentes entrées sur l’issue et d’autres nuances, simplifiant par trop le modèle dont elle réduit donc le degré d’exactitude.

Malgré ces inconvénients et ce manque de précision, de nombreuses organisations se fient à ce type d’analyse.

 

Analyse de risque stochastique – Simulation Monte Carlo

La simulation Monte Carlo offre une meilleure méthode d’analyse quantitative du risque. Dans cette approche, les entrées incertaines d’un modèle sont représentées par des plages de valeurs possibles appelées « distributions de probabilités ». Grâce à ces distributions, les variables présentent différentes probabilités d’issues distinctes. Les distributions de probabilités décrivent l’incertitude des variables d’une analyse de risque de manière beaucoup plus réaliste. Les distributions de probabilités les plus fréquentes sont : Normale (« courbe en cloche ») — Normale logarithmique — Uniforme — Triangulaire — PERT — Discrète.


Simulation Monte Carlo dans les tableurs et les plans de projet

La plate-forme la plus courante de l’analyse de risque quantitative est le modèle de tableur. Trop souvent, l’analyse déterministe est encore utilisée dans les modèles de tableur alors qu’il serait simple d’ajouter la simulation Monte Carlo, avec @RISK, dans Excel. @RISK ajoute de nouvelles fonctions à Excel, pour la définition de distributions de probabilités et l’analyse des résultats de sortie. @RISK est également disponible pour Microsoft Project où il permet d’évaluer les risques dans les programmes et les budgets de projet.

 

@RISK - Industries et applications

@RISK sert à analyser le risque et l’incertitude présents dans de nombreux secteurs. Du monde de la finance à la science, toute personne confrontée à l’incertitude dans ses analyses quantitatives peut bénéficier de @RISK.

 

 
.

 

L’informatique 64-bits

64-bits

Les processeurs 64-bits deviennent la norme sur tous les systèmes, des ordinateurs de bureau aux serveurs évolutifs. Voici peu encore, la plupart des systèmes informatiques d’entreprise reposaient sur des processeurs 32-bits. Par rapport à cette technologie, les processeurs 64-bits ont pour avantage majeur leur capacité d’accès à une mémoire bien plus vaste, et d’exploitation de cette mémoire. Au maximum, les processeurs 32-bits pouvaient gérer 4 Go de mémoire vive (RAM), répartie entre le système d’exploitation et les applications en cours d’exécution. Avec les systèmes 64-bits, on peut atteindre un téraoctet (1000 Go) ou même davantage. L’utilisateur a ainsi accès à bien plus de données et peut analyser de plus vastes problèmes, et bien plus complexes, que jamais encore auparavant. Ainsi, les feuilles de calcul pourtant courantes de plus de 2 Go étaient tout simplement inaccessibles sur les systèmes 32-bits, alors que les systèmes 64 bits en gèrent les fichiers sans difficulté.

Windows Vista et Windows 7, de même qu’Office 2010, sont proposés en version 64-bits. Près de 50 % des PC du monde tournent déjà sous la version 64-bits de Windows. De plus en plus sont vendus avec processeur 64-bits et configurés pour tourner par défaut sous Windows 64-bits. À l’heure où le prix de la mémoire continue à baisser, il est aussi plus économique d’acheter de grandes quantités de mémoire vive (RAM) pour profiter de la puissance de calcul accrue des systèmes 64-bits.


Plus de mémoire à moindre prix

Grâce à leur capacité d’accès à tant de mémoire supplémentaire, les systèmes 64-bits traitent plus de données par cycle, d’où la possibilité de configurations plus performantes et plus évolutives et bien sûr aussi celle du développement de modèles et applications logicielles bien plus sophistiqués.

L’expansion des processeurs 64-bits intervient alors même que les prix du matériel informatique continuent de baisser. Pratiquement tous les PC sont livrés avec processeurs multicœurs depuis quelques années déjà. Le prix de la mémoire vive (RAM) ne cesse, lui non plus, de diminuer. Cela veut dire que de très puissants ordinateurs de bureau, serveurs ou clusters peuvent être configurés à prix relativement bon marché et mettre la superinformatique à la portée de tous.

Les systèmes de calcul haute performance (HPC) en sont de plus en plus répandus. Ces systèmes HPC sont des clusters de serveurs multicœurs ou multiprocesseurs à traitement parallèle, pour le calcul de plus de données, plus fréquemment et plus rapidement. Combinée aux systèmes HPC, l’architecture 64-bits représente une amélioration exponentielle de performance HPC.


Avantages tous azimuts

L’informatique 64-bits accroît aussi l’efficacité du multitâche, des tests aux marges, du chiffrement et d’autres fonctions où les systèmes 32-bits font parfois défaut. Cela d’autant plus que la technologie 64-bits gère plus facilement les fichiers volumineux. Par exemple, un fichier de 4 Go (tout à fait courant) ne peut être « mappé » efficacement sur un système 32-bits : l’accès ne peut s’y faire qu’à quelques portions du fichier à la fois, alors qu’il est intégral sur un système 64-bits.


Compatibilité 64-bits des logiciels Palisade

@RISK et la série de logiciels analytiques DecisionTools Suite sont programmés pour tirer parti de la puissance de traitement accrue des versions 64-bits d'Excel 2010 et de Windows 7. Les utilisateurs appelés à traiter de volumineux modèles constateront sans doute une vitesse de simulation et d’optimisation améliorée, qui leur permettra d’exécuter de plus grandes simulations ou de plus fréquentes analyses. Leurs analyses intensives de type tests aux marges, analyses de sensibilité avancées et simulations/optimisations combinées s’exécuteront de manière plus efficace aussi. Mieux encore, @RISK et DecisionTools Suite 64 bits permettront la création de modèles plus vastes que jamais encore. La quantité de mémoire disponible aux systèmes 64 bits élimine pratiquement toute limite de taille ou de complexité pour les modèles de tableur ou les applications VBA exécutées dans les feuilles de calcul.

 

 
.

 

Le kit de développeur Excel (XDK) en vidéos

 

Ces séries de vidéos sont un bon moyen pour commencer à utiliser le langage de programmation VBA d'Excel intégré pour automatiser @RISK

Présentation de XDK pour @RISK

Présentation de XDK de @RISK

Regardez cette vidéo en premier.
Dr. Chris Albright présente une programmation VBA pour Excel et des modèles d'objets en général.

 
modèle d'objet avec XDK pour @RISK

Modèle d'objet avec XDK de @RISK

Cette vidéo propose une aperçu rapide des nombreux aspects de @RISK comme l'automatisation avec VBA et le XDK pour @RISK. Il s'agit notamment de générer des statistiques sommaires et des sorties de graphiques @RISK, créer des rapports @RISK, ajuster les distributions aux données, automatiser des analyses avancées, et plus encore.

automatisation @RISK et PowerPoint

Automatisation de @RISK et PowerPoint

Cette vidéo explique comment vous pouvez utiliser le code VBA pour automatiser la fois @RISK et PowerPoint. Plus précisément, il montre comment vous pouvez créer une variété de graphiques à partir d'une simulation @RISK, puis les coller dans des diapositives PowerPoint.
video intellisense avec XDK pour @RISK

Intellisense avec XDK de @RISK

Dans cette vidéo, le Dr Chris Albright vous accompagne à travers l'écriture proprement dite du code VBA illustré dans la première vidéo. Plus précisément, il montre comment cet excellent outil d'Excel, Intellisence, vous aide à "remplir les blancs" lorsque vous écrivez votre code VBA.

Importation de données pour XDK de @RISK

Importation de données pour XDK @RISK

Cette vidéo explique comment vous pouvez utiliser le code VBA pour importer des données à partir d'une base de données ou un fichier texte dans Excel, puis utiliser des outils d'ajustement de @RISK pour adapter des distributions aux données, encore une fois avec le code VBA.

automatisation de RISKOptimizer

Automatisation de RISKOptimizer

Bien que RISKOptimizer est maintenant totalement intégré dans @RISK, il continue à avoir son propre modèle d'objet. Cette vidéo présente le modèle objet de RISKOptimizer et explique la simplicité d'automatiser un modèle d'optimisation de code VBA.


 
.

 Prochain Rendez-vous thématique