Dataplanleggings- og informasjonstrengighetssyndromet

Les denne artikkelen for å lære om data planlegging og informasjon utmattelsessyndrom:

Informasjonsvolumene øker ved geometriske progresjoner, og det blir stadig vanskeligere å takle informasjonseksplosjonen som finner sted.

Image Courtesy: engazegypt.com/uploads/services/136853078516158773-internet-a.jpg

Dataplanlegging bør også fokusere på dette problemet. Følgende avsnitt omhandler dette problemet og svaret på databaseteknologien til dette problemet.

Informasjon Utmattelsessyndrom:

En nylig internasjonal undersøkelse "Dying for Information" har gjort en oppsiktsvekkende åpenbaring at halvparten av alle ledere klager over overbelastning av informasjon, noe som medfører at man legger til eksisterende høye nivåer av stress som medfører dårlig helse. Undersøkelsen viser videre at ledere er fanget i et utøvende dilemma i en alder av fakser, telefonsvarer og Internett.

De føler også at de ikke kan fungere godt uten høyt nivå av informasjon. Men denne tunge belastningen med ofte irrelevante data påvirker effektiviteten og tråler bedriftens maskin. 'Tidsavbrudd, forsinkelse av beslutninger og spenning kan spores til overbelastning av informasjon'.

Å ha for mye informasjon kan være like farlig som å ha for lite 'oppsummerer dilemmaet ledet av ledere i dag. Dette fenomenet blir betegnet som "Information Fatigue Syndrome" og er "nå en del av en utøvende liv". Det berømte sitatet "Vann vannet overalt, ikke en dråpe å drikke" av den gamle Mariner kan bli egnet til informasjon også.

For sent har man forsøkt å møte utfordringen fra Information Fatigue Syndrome. En rekke programvare teknikker som databaseteknologi, spørrespråk, 4GLs, OOPs, executive-informasjonssystemer, ekspertinformasjonssystemer, etc. er tilgjengelige for å gi god kvalitetsinformasjon tilgjengelig for ledere.

Imidlertid har disse teknikkene vist seg å være utilstrekkelige for oppgaven på grunn av den betydelige veksten i informasjonsbassenget. Hovedårsaken til dette har vært at dataene i databaser har vært transaksjonsorientert og ikke fagrettet.

Dataene om gjeldende operasjoner tar mest oppmerksomhet fra en databaseadministrator. En enkel spørring om hva er forholdet mellom salg av sigaretter, brus og baby mat; eller hva er forventet økning i salg dersom avdelingsbutikken holdes åpen sent på kvelden også, kan sende sjokkbølger til informasjonssjefer i dag.

Spørsmålene om slike problemer krever bruk av et stort utvalg av nåværende og tidligere data angående oppførsel av kunder i ulike situasjoner. Det krever en datalager spesielt tilpasset for å møte slike spørsmål. For å redusere tid og kostnader for analyse og lagring, bør data i et slikt tilfelle lagres etter viss mengde grunnleggende aggregering og analyse.

Å bestemme graden av aggregering og eliminere redundans utgjør en stor utfordring for informasjonsledere. Ettersom spørsmåletes natur i slike tilfeller ikke kan forventes, blir oppgaven enda mer utfordrende. Information Warehouse tilnærming er utviklet for å møte denne utfordringen.

Data Warehousing Approach:

Datavarehousing-tilnærmingen (også noen ganger kalt informasjonslagringsmetode) antyder at informasjonen skal innhentes, holdes og serveres etter den grunnleggende tilnærmingen som brukes i tilfelle av lager for andre fysiske innganger.

De generelle varehusfasilitetene er utviklet og innser at noe lager ut vil hindre produksjonsprosessen og ha konsekvenser for bunnlinjen. Så er det nødvendig med regelmessig og bevisst oppkjøp, bearbeidelse og lagring i bruksklare tilstand hele tiden.

Den særegne egenskapen til informasjonslagringsmetoden er at den skaper et datalager, forskjellig fra de vanlige databasene som vedlikeholdes av et foretak.

Forutsetningen er her at data samlet og konsolidert og anskaffet fra forskjellige kilder som produksjon, markedsføring og finansiering er for viktig for å være forstyrret av komplekse analytiske spørsmål fra brukere. Dermed blir det søkt mot en utvunnet database som er spesielt organisert for å møte analytiske spørsmål. En slik database kalles også Meta-data.

Denne tilnærmingen kombinerer analytiske verktøy, høyhastighets parallelle og multiprosesseringssystemer med spesialiserte algoritmer og programvareverktøy. De særegne egenskapene til tilnærmingen kan bedre forstås av trinnene i prosessen den vedtar for å møte de analytiske spørringene. Disse trinnene er:

en. Fangst av data, også betegnet som høsting eller garnering av data fra forskjellige kilder som kjører forskjellige applikasjoner;

b. Rensing av data (data scrubbing) for å sikre konsistens og fullstendighet. Det innebærer også fjerning av overflødige dataposter;

c. Organisering av dataene i databaser spesielt utviklet for analyse av data. Disse databasedesignene er forskjellige fra de som brukes til opptak og rapportering i et foretak. De er fri fra bekymringene til kilde, autentisitet, revisjonsstier etc.

d. Tilgjengelighet av analytiske prosessorer på stedet (OLAP), Data Mining Tools, Datavisualiseringsverktøy, Internett Aktiveringsverktøy, Executive Information Systems (EIS) og andre dataanalyser og rapporteringsverktøy for å møte de krevende analytiske spørringene fra brukerne.

En kritisk avgjørelse som må tas i forbindelse med utvelgelsen av data som skal lagres i informasjonsdatabaser. I tilfelle det er mulig å forutsi fremtidens informasjonsbehov, skal en toboksmodell være tilstrekkelig.

I denne modellen oppsummeres operasjonsdataene, og dataene som måtte være påkrevd i fremtiden kan kopieres til informasjonsdatabasen. I tilfelle det ikke er mulig å forutsi fremtidige informasjonsbehov, kan en treboksmodell være mer hensiktsmessig. I denne modellen lagres alle operasjonsdataene først i det som kalles historisk database, og en valgt del av den lagres også i en informasjonsdatabase. Figur 9.9 viser de to modellene.

Datavarehousing-tilnærmingen er i ferd med å komme seg som angitt av bredere aksepterbarhet blant de beste programvareprodusentene. Nå har ledende database programvare selskaper som Oracle, Sybase, Informix og IBM åpent fortalte denne tilnærmingen. Informix har etablert forbindelser med Prism Solutions, et selskap skapt av Bill Inmon, som anses å være far til datalagring.

Fordeler med datalagringsmetoden:

Datalagring blir populær av følgende grunner:

en. Det øker hastigheten på dataanalysen da dataaggregatene lagres, og de daglige transaksjonene hindrer ikke analyseprosessen.

b. Det gir fleksibilitet når det gjelder arten av spørringen og fokuserer på fag og aktiviteter i stedet for transaksjoner.

c. Det hjelper med å forstå ulike forretningsprosesser og oppførselsmønster hos kunder, leverandører, investorer, etc.

Noen av suksesshistoriene i bruk av datalagring inkluderer Wal-Mart-kjeden av detaljhandel som behandler 7, 5 terabytes datalagring av ulike aspekter ved butikkoperasjoner. Trendene i salget analyseres, og effekten av ulike endringer som rabatter og andre beslutninger om salg vurderes regelmessig for å veilede fremtidig handlingsplan.

Et annet eksempel er Reuters, en finansiell informasjonstjenesteleverandør som har utviklet en ny serie informasjonstjenester som Money 3000, Securities 3000 og Treasury 3000. Selskapet har merverdi til finansiell informasjon ved å gi brukerne tilgang til sin historiske informasjon om markeder og instrumenter.

Den bruker datalagringsmetoden til å lagre og tillate tilgang til data lagret i ulike datamaskiner over hele verden. Dataene er samlet fra 4600 forskjellige kilder, inkludert 236 markeder, 241 analytikere og 50 tredjeparts nye feeds og det eier et team av 1860 journalister. For så store data, ble datalagringsmetoden ansett som mest egnet.

Kritiske suksessfaktorer i datalagring:

For å realisere de fulle fordelene ved et datalagringssystem, er det viktig å ta hensyn til faktorer som er kritiske for effektiviteten av slike systemer.

Noen av disse faktorene er:

a) Datamagasinetilgangen krever store investeringer i maskinvare og programvare. Denne tilnærmingen vil derfor bare gi mening i store selskaper, hvor potensialet i systemet kan utnyttes fullt ut.

b) Datalagring krever store arkitektoniske endringer i de allerede godt etablerte databasene. Slike endringer kan føre til hindringer i driften av eksisterende systemer, eller de eksisterende systemene må paralleller kjøre med de nye systemene i noen tid.

Tilsvarende er det andre teknologiske og forretningsmessige hindringer som kan hemme vellykket implementering av disse systemene. Håndteringen av hindringer i gjennomføringsperioden, som varierer mellom 18-24 måneder, vil være en viktig faktor i lagringssystemets suksess.

c) Det fulle potensialet i denne tilnærmingen kan bare realiseres når en rekke dataanalyseværktøy er ansatt for å generere informasjon. Utvelgelsen og bruken av dataanalyseværktøy avhenger av tilgjengeligheten av slike verktøy samt bedriftskulturen. Datavarehousing-tilnærmingen vil lykkes hvis en egnet arbeidskultur råder i et foretak.

d) Denne tilnærmingen antar en svært moden type IT-miljø hvor graden av IT-penetrasjon i den daglige aktiviteten er svært høy. Brukerbedriften bør ha en stor mengde historiske data som allerede er lagret på magnetiske medier. Dermed er det en evolusjonær prosess og ikke en revolusjonær.

Avkastningen på investeringen i denne tilnærmingen er et grått område, og det må derfor foretas en kostnadsfordelingsanalyse før du hopper inn i data warehousing bandwagon.