LaDissertation.com - Dissertations, fiches de lectures, exemples du BAC
Recherche

L'intelligence économique Et Le WEB

Dissertations Gratuits : L'intelligence économique Et Le WEB. Recherche parmi 297 000+ dissertations

Par   •  20 Octobre 2012  •  1 175 Mots (5 Pages)  •  1 036 Vues

Page 1 sur 5

L’intelligence économique et le WEB

Selon la SCIP l’intelligence économique est un processus de collecte, d’analyse et de diffusion précise en temps opportun d’une action concernant l’environnement des affaires, les concurrents et l’organisation elle-même, impliquant un certain nombre d’activités menées par une entreprise engagé dans un projet de CI. Ce projet présente un cycle continu qui suit les étapes suivantes :

 Planification et la direction

 Collection

 Analyse

 Diffusion

 Commentaires

Une fois la première étape terminé, la 2ème et 3ème étapes constitue les clés de la réussite du processus CI, celles-ci requièrent de nombreuses sources d’information à savoir celle du WEB qui sont les plus consultés vu qu’un site WEB contient l’ensemble des informations relatives aux entreprises, la plupart de ces données sont gratuite et l’accès ne nécessite aucun logiciel compliqué.

I. COLLECTE DE L'INFORMATION SUR LE WEB

L’utilisation des moteurs de recherches se voit être la méthode la plus satisfaisante pour la collecte d’information du WEB. Ces moteurs de recherchent acceptent la recquete d’un utilisateur et lui retournent l’ensemble des pages WEBS contenant les informations recherchés.

1. Un moteur de recherche Web se compose généralement des éléments suivants.

2. WEB Spiders qui sont utilisés pour collecter les pages Web en utilisant des techniques de recherche graphique.

3. Une méthode d'indexation pour stocker les indices dans un base de données.

4. Des méthodes d'extraction et de classement sont utilisées pour récupérer les résultats de recherche à partir de la base de données et présenter les résultats classés aux utilisateurs.

5. Une interface utilisateur permet aux utilisateurs d'interroger la base de données et de personnaliser leurs recherches.

Outre que les moteurs de recherches standards, il existe d’autres types de moteurs comme le méta-moteur qui recherche l’information de l’ensemble des moteurs de recherches existant sur le WEB et la présente à l’utilisateur. La technologie P2P qui se développe constamment attribue aussi de l’information aux utilisateurs et ce en la collectant de d’autres utilisateurs qui activent quant à leur tour le partage des informations qui ont sur leur ordinateurs.

Néanmoins, les informations à accès gratuit et facile à obtenir ne représentent qu’un pourcentage très faible de toute l’information que contient le WEB. En effet, les pages webs profondes tels que les intranets, les pages dynamiques… sont accessibles seulement aux membres des organisations qui les produisent et ne peuvent être accessibles aux autres utilisateurs, ces pages webs qui contiennent la majorité des informations du WEB rendent les informations des pages interface peu fiable parfois erroné, ce qui pousse l’utilisateur du moteur de recherche à analyser l’information collecté en vue de s’assurer de sa pertinence.

II. ANALYSE DE L'INFORMATION

Etant donné le grand nombre de pages non contrôlés qu’une recherche peut générer, il devient nécessaire de contrôler la recherche. La recherche doit retourner uniquement les pages Web qui sont pertinents à la requête. L’analyse des pages WEB se fait par le WEB MINING qui regroupe 3 catégories : Web Content Mining, Web Structure Mining, and Web Usage Mining.

La fouille du Web (WEB Mining) consiste à utiliser l'ensemble des techniques de la fouille de données afin de développer des outils permettant l'extraction d'informations pertinentes à partir de données du Web (documents, traces d'interactions, structure des liens, etc.).

Selon l'objectif visé plusieurs types d'études peuvent être réalisés, à savoir :

L'analyse du contenu des pages Web (Web Content Mining) : C'est le processus d'extraction des connaissances à partir du contenu réel des pages Web. Les informations provenant du Web sont stockées dans des bases de données. Ces dernières sont ensuite analysées en utilisant les langages d'interrogations

...

Télécharger au format  txt (8.1 Kb)   pdf (106.5 Kb)   docx (11.1 Kb)  
Voir 4 pages de plus »
Uniquement disponible sur LaDissertation.com