De prøver å støtte åpne systemer. Fremtiden for datamaskiner og tilbakemeldinger. Kompleksitetskrisen og programledelse

01.10.2021 Symptomer

Betydelig penetrasjon i den interne strukturen i organisasjonen sikres ved å bruke en systematisk tilnærming.

Det er åpne og lukkede systemer. Konseptet med et lukket system stammer fra de fysiske vitenskapene. Her er det forstått at systemet er selvbegrensende. Henne hovedkjennetegn er at den i hovedsak ignorerer effekten av ytre påvirkninger. Et perfekt lukket system vil være et som ikke mottar energi fra eksterne kilder og ikke gir energi til det ytre miljøet. Et lukket organisasjonssystem har liten anvendelighet.

Et åpent system gjenkjenner dynamisk interaksjon med omverdenen. Organisasjoner henter sine råvarer og menneskelige ressurser fra verden rundt dem. De er avhengige av kunder og kunder fra omverdenen for å konsumere produktene deres. Banker som aktivt samhandler med omverdenen bruker innskudd, gjør dem om til lån og investeringer, bruker overskuddet mottatt til å forsørge seg selv, til utvikling, til å betale utbytte og betale skatt.

I et diagram som ser for seg en industriell organisasjon som et åpent system (Figur 1), kan man se flyten av materialer, arbeidskraft og kapital. En teknologisk prosess skapes for å bearbeide råvarer til et sluttprodukt, som igjen selges til kunden. Finansinstitusjoner, arbeidskraft, leverandører og kunder og myndigheter er alle en del av miljøet.

Graden av avgrensning mellom åpne og lukkede systemer varierer innenfor systemer. Et åpent system kan bli mer lukket dersom kontakten med omgivelsene avtar over tid. I prinsippet er den motsatte situasjonen også mulig.

Figur 1 – Industriell organisasjon som åpent system

Mer åpne systemer har en tendens til å øke kompleksiteten og differensieringen. Med andre ord vil et åpent system, ettersom det vokser, strebe etter større spesialisering av elementene og mer kompleks struktur, ofte utvide sine grenser eller skape et nytt supersystem med bredere grenser. Etter hvert som en bedrift vokser, er det betydelig differensiering og kompleksitet. Nye spesialiserte avdelinger opprettes, råvarer kjøpes inn, produktspekteret utvides og nye salgskontorer organiseres.

Alle systemer har en input, en transformasjonsprosess og en output. De mottar råvarer, energi, informasjon og andre ressurser og transformerer dem til varer og tjenester, profitt, avfall osv. Åpne systemer har imidlertid noen spesifikke funksjoner som studenter i organisasjoner trenger å vite.

Et av disse trekkene er erkjennelsen av den gjensidige avhengigheten mellom systemet og omverdenen. Det er en grense som skiller systemet fra dets miljø. Endringer i miljøet påvirker en eller flere attributter ved systemet, og omvendt påvirker endringer i systemet miljøet. Organisasjonens ytre miljø er skjematisk presentert i figur 2.

Figur 2 – Ytre miljø i organisasjonen

Organisasjonen skal reflektere det ytre miljø. Konstruksjonen er basert på forutsetninger av økonomisk, vitenskapelig, teknisk, politisk, sosial eller etisk art. En organisasjon må være utformet for å fungere godt, for å motta innspill fra alle medlemmene, og for å effektivt hjelpe ansatte med å nå sine mål nå og i fremtiden. Slik sett kan en effektiv organisasjon ikke være statisk. Hun må raskt lære om alle endringer i miljøet, forestille seg betydningen deres, velge den beste responsen for å nå sine mål og reagere effektivt på miljøpåvirkninger.

Uten en grense er det ikke noe system, og grensen eller grensene definerer hvor systemer eller delsystemer begynner og slutter. Grenser kan være fysiske eller ha psykologisk innhold gjennom symboler som navn, kleskoder og ritualer. Begrepet grenser er nødvendig for en dypere forståelse av systemer.

Av grunnleggende betydning for organisasjoners funksjon er Tilbakemelding. Mer åpne systemer mottar stadig informasjon fra sine omgivelser. Dette hjelper deg med å tilpasse deg og lar deg iverksette korrigerende tiltak for å rette opp avvik fra akseptert kurs. Her forstås tilbakemelding som en prosess som gjør at deler av produksjonsproduktet kan mottas tilbake i systemet i form av informasjon eller penger for å modifisere produksjonen av samme produksjonsprodukt eller etablere produksjon. Nye Produkter.

Det er også nødvendig å ta hensyn til at organisasjoner er bemannet av mennesker. Når du grupperer aktiviteter og distribuerer autoritet innenfor ethvert organisasjonssystem, er det åpenbart nødvendig å ta hensyn til de forskjellige manglene og vanene til mennesker. Dette betyr ikke at en organisasjon skal skapes i forhold til mennesker, og ikke ut fra mål og relaterte aktiviteter for å nå dem. En svært viktig, ofte begrensende faktor for en leder er imidlertid hvilke personer som skal jobbe i organisasjonen.

Atferden til medlemmer av en organisasjon kan betraktes som dens indre miljø. En organisasjon møter stadig problemer som kan endre sin posisjon, og for at alle dens elementer skal fungere og være intelligent koordinert, er en kontinuerlig tilførsel av ressurser nødvendig. Produksjonsapparatet slites ut, teknologien blir foreldet, materialer må etterfylles, arbeidere slutter. For å sikre organisasjonens levedyktighet må disse ressursene erstattes av elementer med lik produktivitet uten å avbryte produksjonsprosessen.

Andre interne problemer oppstår som følge av manglende kommunikasjon og koordinering mellom ulike deler av organisasjonen. En av grunnene til at arbeidere slutter og aksjonærer ikke er villige til å investere sparepengene sine, er at disse gruppene er misfornøyde med arbeidsforholdene og belønningene for deltakelse i organisasjonen, og denne misnøyen kan bli så sterk at selve organisasjonens eksistens er truet. Det interne miljøet i organisasjonen er skjematisk vist i figur 3.

Organisasjonen er preget av en syklisk karakter av funksjon. Systemets utgang gir midler til nye investeringer, slik at syklusen kan gjenta seg. Inntektene som mottas av kunder til industriorganisasjoner må være tilstrekkelig tilstrekkelige til å betale for lån, arbeidernes arbeid og tilbakebetaling av lån, hvis sykliskiteten er stabil og sikrer organisasjonens levedyktighet.

Figur 3 – Internt miljø i organisasjonen

Det bør også understrekes at organisasjonssystemer er utsatt for reduksjon eller desintegrasjon. Fordi et lukket system ikke mottar energi og nye tilførsler fra sitt ytre miljø, kan det krympe over tid. I motsetning til dette er et åpent system preget av negativ entropi, dvs. den kan rekonstruere seg selv, opprettholde sin struktur, unngå likvidering og til og med vokse, fordi den har evnen til å motta energi fra utsiden i større grad enn den gir ut.

Tilstrømningen av energi og for å forhindre entropi opprettholder en viss stabilitet i utvekslingen av energi, noe som resulterer i en relativt stabil posisjon. Selv om det er en konstant tilstrømning av nye investeringer i systemet og en konstant utstrømning, sikres en viss balanse i systemet. Når et åpent system aktivt behandler input til output-produkter, viser det seg likevel å kunne opprettholde seg selv i en viss tid.

Forskning viser at store og komplekse organisasjonssystemer har en tendens til å fortsette å vokse og ekspandere. De får en viss sikkerhetsmargin som går utover å bare overleve. Mange delsystemer i et system har evnen til å skaffe mer energi enn det som kreves for å produsere produktene deres. Det antas at en stabil posisjon gjelder for enkle systemer, men på et mer komplekst nivå blir det en av faktorene for å opprettholde systemet gjennom vekst og ekspansjon.

Etter hvert som en organisasjon vokser, blir seniorledere tvunget til i økende grad å delegere sine beslutningsansvar til høyere nivåer. Men siden ledere på toppnivå er ansvarlige for alle beslutninger, endres deres rolle i organisasjonen: Fra å ta beslutninger går ledere på toppnivå videre til å styre beslutningsprosessene. Som et resultat fører økningen i størrelsen på organisasjoner til behov for en arbeidsdeling i ledelsen. Den ene gruppen - toppledere - har primær myndighet og er ansvarlig for å bestemme arten av organisasjonens styringssystem, dvs. prosessen der organisatoriske problemer skal løses. En annen gruppe ledere rapporterer til toppledelsen. Dens folk er komponenter i styringssystemet, og deres hovedansvar er å ta beslutninger.

Åpne systemer følger to, ofte motstridende, handlingsmåter. Handlinger for å holde systemet balansert sikrer konsistens og interaksjon med det ytre miljøet, noe som igjen forhindrer svært raske endringer som kan komme i ubalanse i systemet. Tvert imot, handlinger for å tilpasse systemet til ulike endringer lar det tilpasse seg dynamikken i intern og ekstern etterspørsel. En handlingsmåte fokuserer for eksempel på stabilitet og opprettholdelse av oppnådd posisjon gjennom kjøp, vedlikehold, inspeksjon og reparasjon av utstyr, rekruttering og opplæring av arbeidere og bruk av regler og prosedyrer. Et annet kurs fokuserer på endring gjennom planlegging, markedsundersøkelser, utvikling av nye produkter og lignende. Begge er nødvendige for organisasjonens overlevelse. Stabile og velutstyrte organisasjoner, men ikke tilpasset skiftende forhold, vil ikke kunne overleve lenge. På den annen side vil organisasjoner som er tilpasningsdyktige, men ikke stabile, ikke være effektive og det er heller ikke sannsynlig at de vil overleve lenge.

Trender i organisasjonsendringer

Det er mulig å spore tre faser av grunnleggende endringer i organisasjoner som skjedde på 1900-tallet og har ekte historisk betydning. Den første fasen er separasjon av ledelsesfunksjoner fra eierne og transformasjon av ledelse til en profesjon. Den andre fasen er fremveksten, fra og med tjueårene, av kommando- og administrative organisasjoner med vertikal underordning og høy grad av sentralisering av beslutninger. Den tredje fasen er overgangen til organisasjoner med overvekt av horisontale strukturer og sammenhenger, basert på utbredt bruk av informasjonsteknologi, spesialkunnskap og systemiske beslutningsmetoder.

På terskelen til neste århundre skjer en dramatisk overgang fra organisatorisk rasjonalisering basert primært på kumulativ erfaring til omfattende anvendelse av moderne kunnskap, informasjonsnettverk og dataundervisning. Denne prosessen er ledsaget av en rekke store endringer. Integrering i ledelsen aktiveres gjennom dannelsen av assosiative strukturer og allianser forskjellige typer, inkludert organisasjoner av transnasjonal karakter. Prosessene med omfattende restrukturering, overgang til organisasjoner med indre markeder, reduksjon i størrelsen på organisasjonsenheter, bruk av arbeidsstyrker, matrisestrukturer og selvlærende organisasjoner skyter fart.

Alt dette er ment å sikre eliminering av motsetninger og motsetninger i funksjonen til moderne organisasjoner som hindrer effektiv bruk av produksjon og intellektuelt potensial. I fremtiden er det nødvendig å overvinne den fortsatt eksisterende motsetningen mellom strenge bedriftskrav og arbeidernes ambisjoner, moderne teknologiske systemer og det sosiale systemet, integrerte produksjonsprosesser og arbeidernes forventninger, arbeidsrutine og tilfredshet fra det. Velfungerende grensesnittsystemer bør ikke motsi humanitære behov, komplekse strukturer bør ikke motsi følelsen av individualitet, kostnads- og inntektsfaktorer bør ikke motsi behovet for personlig utvikling. Det er viktig å oppnå harmoni og konsistens mellom stabilitet og innovasjon, enhetlighet og endring, stabiliteten i organisasjonssystemet og kreativitet, veksten av organisasjonen og dens reduksjon i størrelse, ønsket om profitt og samfunnets krav.

Sammen med tradisjonelle økonomiske kriterier for å vurdere organisasjoners ytelse basert på måling av effektiviteten ved bruk av ressurser i forhold til resultater, kommer «immaterielle» tiltak i økende grad i forgrunnen: intellektuell kapital, kundetilfredshet, sosial profitt, organisasjonskultur. Slike kriterier er fremtidsrettede. I mange tilfeller er de en bedre indikator på fremtidig ytelse enn finansielle nøkkeltall.


Relatert informasjon.


OSI-modellen, som navnet antyder (Open System Interconnection), beskriver sammenkoblingene av åpne systemer. Hva er et åpent system?

I vid forstand åpent system kan kalles et hvilket som helst system (datamaskin, nettverk, OS, programvarepakke, annen maskinvare og programvareprodukter) som er bygget i samsvar med åpne spesifikasjoner.

La oss huske at begrepet "spesifikasjon" (i databehandling) forstås som en formalisert beskrivelse av maskinvare- eller programvarekomponenter, metoder for deres drift, interaksjon med andre komponenter, driftsforhold, begrensninger og spesielle egenskaper. Det er klart at ikke alle spesifikasjoner er en standard. Åpne spesifikasjoner, derimot, refererer til publiserte, offentlig tilgjengelige spesifikasjoner som er i samsvar med standarder og vedtas ved konsensus etter full diskusjon av alle interesserte parter.

Bruken av åpne spesifikasjoner ved utvikling av systemer lar tredjeparter utvikle ulike maskinvare- eller programvareutvidelser og modifikasjoner for disse systemene, samt lage programvare- og maskinvaresystemer fra produkter fra forskjellige produsenter.

For ekte systemer er fullstendig åpenhet et uoppnåelig ideal. Som regel, selv i systemer som kalles åpne, oppfyller bare noen deler som støtter eksterne grensesnitt denne definisjonen. For eksempel består åpenheten til Unix-familien av operativsystemer blant annet i tilstedeværelsen av et standardisert programvaregrensesnitt mellom kjernen og applikasjoner, som gjør det mulig å enkelt overføre applikasjoner fra en versjon av Unix til en annen versjon. Et annet eksempel på delvis åpenhet er bruken av Open Driver Interface (ODI) i det ganske lukkede Novell NetWare-operativsystemet for inkludering av drivere i systemet nettverksadaptere uavhengige produsenter. Jo mer åpne spesifikasjoner som brukes til å utvikle et system, jo ​​mer åpent er det.

OSI-modellen angår bare ett aspekt ved åpenhet, nemlig åpenheten i virkemidlene for samhandling mellom enheter koblet i et datanettverk. Her refererer et åpent system til en nettverksenhet som er klar til å samhandle med andre nettverksenheter ved hjelp av standardregler som definerer formatet, innholdet og betydningen av meldingene den mottar og sender.

Hvis to nettverk bygges i samsvar med prinsippene om åpenhet, gir dette følgende fordeler:

Muligheten til å bygge et nettverk fra maskinvare og programvare fra forskjellige produsenter som følger samme standard;

Evnen til smertefritt å erstatte individuelle nettverkskomponenter med andre, mer avanserte, noe som gjør at nettverket kan utvikle seg til minimale kostnader;

Mulighet for enkel sammenkobling av ett nettverk med et annet;

Enkel utvikling og vedlikehold av nettverket.

Et slående eksempel på et åpent system er det internasjonale nettverket Internett. Dette nettverket har utviklet seg i full overensstemmelse med kravene til åpne systemer. Tusenvis av spesialistbrukere av dette nettverket fra forskjellige universiteter, vitenskapelige organisasjoner og maskinvare- og programvareprodusenter som opererer i forskjellige land, deltok i utviklingen av standardene. Selve navnet på standardene som bestemmer driften av Internett - Request For Comments (RFC), som kan oversettes som "forespørsel om kommentarer" - viser den gjennomsiktige og åpne karakteren til de vedtatte standardene. Som et resultat har Internett klart å kombinere et bredt utvalg av maskinvare og programvare fra et stort antall nettverk spredt rundt i verden.

1.3.5. Modularitet og standardisering

Modularitet er en av de integrerte og naturlige egenskapene til datanettverk. Modularitet manifesteres ikke bare i flernivåpresentasjonen av kommunikasjonsprotokoller ved endenodene til nettverket, selv om dette absolutt er et viktig og grunnleggende trekk ved nettverksarkitekturen. Nettverket består av et stort antall forskjellige moduler - datamaskiner, nettverkskort, broer, rutere, modemer, operativsystemer og applikasjonsmoduler. Variasjonen av krav som bedrifter stiller til datanettverk har ført til samme variasjon av enheter og programmer produsert for å bygge et nettverk. Disse produktene

skiller seg ikke bare i hovedfunksjonene (som betyr funksjoner utført for eksempel av repeatere, broer eller programvareomdirigerere), men også i en rekke hjelpefunksjoner som gir brukere eller administratorer ekstra bekvemmeligheter, for eksempel automatisk konfigurasjon av enhetsparametere, automatisk deteksjon og eliminering av visse feil, muligheten til å programmatisk endre tilkoblinger i nettverket osv. Variasjonen øker også fordi mange enheter og programmer er forskjellige i kombinasjoner av visse grunnleggende og tilleggsfunksjoner – det finnes for eksempel enheter som kombinerer de grunnleggende egenskapene til brytere og rutere, som også er lagt til et sett noen tilleggsfunksjoner som kun er spesifikke for dette produktet.

Som et resultat er det ikke noe selskap som kan tilby hele spekteret av alle typer og undertyper av maskinvare og programvare som kreves for å bygge et nettverk. Men siden alle nettverkskomponenter må fungere i harmoni, viste det seg å være helt nødvendig å ta i bruk en rekke standarder som, om ikke i alle, så i det minste i de fleste tilfeller ville garantere kompatibiliteten til utstyr og programmer fra forskjellige produsenter. Dermed er begrepene modularitet og standardisering i nettverk uløselig knyttet sammen, og en modulær tilnærming gir kun fordeler når den er ledsaget av overholdelse av standarder.

Som et resultat er den åpne naturen til standarder og spesifikasjoner viktig ikke bare for kommunikasjonsprotokoller, men også for alle de mange funksjonene til de forskjellige enhetene og programmene som er utgitt for å bygge et nettverk. Det skal bemerkes at de fleste av standardene som er vedtatt i dag, er åpne. Tiden for lukkede systemer, hvor de eksakte spesifikasjonene bare var kjent for produsenten, er borte. Alle innså at evnen til enkelt å samhandle med konkurrenters produkter ikke reduserer, men tvert imot øker verdien av produktet, siden det kan brukes i et større antall driftsnettverk bygget på produkter fra forskjellige produsenter. Derfor er selv selskaper som tidligere produserte svært lukkede systemer – som IBM, Novell eller Microsoft – nå aktivt involvert i utviklingen av åpne standarder og anvender dem i produktene sine.

I dag i sektoren for nettverksutstyr og programmer med kompatibilitet med produkter fra forskjellige produsenter, har følgende situasjon utviklet seg. Nesten alle produkter, både programvare og maskinvare, er kompatible når det gjelder funksjoner og egenskaper som har blitt satt ut i livet for ganske lenge siden og standarder som allerede er utviklet og tatt i bruk for minst 3-4 år siden. Samtidig viser svært ofte grunnleggende nye enheter, protokoller og egenskaper seg å være inkompatible selv fra ledende produsenter. Denne situasjonen observeres ikke bare for de enhetene eller funksjonene som standarder ennå ikke er vedtatt (dette er naturlig), men også for enheter som standarder har eksistert for i flere år. Kompatibilitet oppnås først etter at alle produsenter implementerer denne standarden i produktene sine, og på samme måte.

1.3.6. Kilder til standarder

Arbeid med standardisering av datanettverk utføres av et stort antall organisasjoner. Avhengig av statusen til organisasjoner, skilles følgende typer standarder ut:

individuelle bedriftsstandarder(for eksempel Digital Equipments DECnet-protokollstack eller GUI OPEN LOOK for Sun Unix-systemer);

standarder for spesielle komiteer og foreninger, laget av flere selskaper, for eksempel ATM-teknologistandarder utviklet av den spesiallagde ATM Forum-foreningen, som har rundt 100 kollektive medlemmer, eller standardene til Fast Ethernet Alliance for utvikling av 100 Mbit Ethernet-standarder;

nasjonale standarder, for eksempel FDDI-standarden, som er en av mange standarder utviklet av American National Standards Institute (ANSI), eller opeutviklet av National Computer Security Center (NCSC) i det amerikanske forsvarsdepartementet;

internasjonale standarder, for eksempel International Standards Organization (ISO) modell og kommunikasjonsprotokollstabel, mange

International Telecommunication Union (ITU) standarder, inkludert

på X.25 pakkesvitsjenettverk, rammerelénettverk, ISDN, modemer og mange

Noen standarder, som stadig utvikler seg, kan flytte fra en kategori til en annen. Spesielt har merkevarestandarder for populære produkter en tendens til å bli de facto internasjonale standarder, noe som tvinger produsenter i forskjellige land til å følge merkevarestandardene for å sikre kompatibilitet av produktene deres med disse populære produktene. For eksempel, på grunn av den fenomenale suksessen til IBMs personlige datamaskin, har den proprietære IBM PC-arkitekturstandarden blitt en de facto internasjonal standard.

Dessuten, på grunn av deres utbredte bruk, blir noen proprietære standarder grunnlaget for de jure nasjonale og internasjonale standarder. For eksempel ble Ethernet-standarden, opprinnelig utviklet av Digital Equipment, Intel og Xerox, senere tatt i bruk i en litt modifisert form som den nasjonale standarden IEEE 802.3, og deretter godkjente ISO-organisasjonen den som den internasjonale standarden ISO 8802.3.

Internasjonal organisasjon for standardisasjon (Internasjonal Organisasjon/ eller Standardisering, ISO, ofte også kalt Internasjonal Standarder Organisasjon) er en sammenslutning av ledende nasjonale standardiseringsorganisasjoner fra forskjellige land. ISOs hovedprestasjon var OSI-modellen for sammenkobling av åpne systemer, som i dag er det konseptuelle grunnlaget for standardisering innen datanettverk. I samsvar med OSI-modellen har denne organisasjonen utviklet en standard stabel med OSI-kommunikasjonsprotokoller.

International Telecommunication Union (Internasjonal Telekommunikasjon Union, ITU) - en organisasjon som nå er et spesialisert organ i FN. Den viktigste rollen i standardiseringen av datanettverk spilles av den rådgivende komité for internasjonal telegrafi og telefoni (CCITT), som er permanent i drift i denne organisasjonen. Som et resultat av omorganiseringen av ITU i 1993, endret CCITT litt retningen på sine aktiviteter og endret navn - den kalles nå ITU Telecommunication Standardization Sector (ITU-T). Grunnlaget for ITU-Ts virksomhet er utvikling av internasjonale standarder innen telefoni, telematikktjenester (e-post, faks, tekst-tv, telex, etc.), dataoverføring, lyd- og videosignaler. I løpet av årene med sin aktivitet har ITU-T gitt ut et stort antall anbefalinger og standarder. ITU-T baserer sitt arbeid på å studere erfaringene til tredjepartsorganisasjoner, samt på resultatene av egen forskning. Hvert fjerde år utgis saksbehandlingen til ITU-T i form av en såkalt "Bok", som faktisk er et helt sett med vanlige bøker gruppert i utgaver, som igjen er kombinert til bind. Hvert bind og utgave inneholder logisk sammenkoblede anbefalinger. For eksempel inneholder bind III av den blå boken anbefalinger for integrerte tjenester digitale nettverk (ISDN), og hele bind VIII (med unntak av utgave VIII.1, som inneholder anbefalinger i V-serien for dataoverføring over telefonnettet) er viet til anbefalinger i X-serien: X.25 for pakkesvitsjenettverk, X.400 for e-postsystemer, X.500 for global helpdesk og mange andre.

Institutt for elektriske og elektroniske ingeniører -Institutt av Elektrisk og Elektronikk Ingeniører, IEEE) - Amerikansk nasjonal organisasjon som setter nettverksstandarder. I 1981 formulerte arbeidsgruppe 802 ved dette instituttet de grunnleggende kravene som lokalnett skal tilfredsstille. 802-gruppen har definert mange standarder, hvorav de mest kjente er 802.1, 802.2, 802.3 og 802.5, som beskriver generelle konsepter som brukes innen lokale nettverk, samt standarder for de to nedre lagene av Ethernet- og Token Ring-nettverk. .

European Computer Manufacturers Association (europeisk Datamaskin Manu­ fabrikker assosiasjon, ESMA) - en ideell organisasjon som aktivt samarbeider med ITU-T og ISO, utvikler standarder og tekniske vurderinger knyttet til data- og kommunikasjonsteknologier. Kjent for sin ECMA-101-standard, som brukes til å overføre formatert tekst og grafikk samtidig som originalformatet bevares.

Sammenslutningen av produsenter av data- og kontorutstyr (Datamaskin og Virksomhet Utstyr Produsenter assosiasjon, CBEMA) - organisering av amerikanske maskinvareprodusenter; lik den europeiske ECMA-foreningen; deltar i utviklingen av standarder for informasjonsbehandling og tilhørende utstyr.

Electronics Industry Association (Elektronisk Industrier assosiasjon, EIA) - industri og handel gruppe av produsenter av elektronisk utstyr og nettverk; er en nasjonal bedriftsforening i USA; er svært aktiv i å utvikle standarder for ledninger, kontakter og andre nettverkskomponenter. Dens mest kjente standard er RS-232C.

USAs forsvarsdepartement (Avdeling av Forsvar, DoD) har en rekke divisjoner involvert i å lage standarder for datasystemer. En av de mest kjente DoD-utviklingene er TCP/IP-transportprotokollstabelen.

American National Standards Institute (amerikansk nasjonal Standarder Institutt, ANSI) - denne organisasjonen representerer USA i International Organization for Standardization (ISO). ANSI-komiteer jobber med å utvikle standarder på ulike områder innen databehandling. Dermed jobber ANSI HZT9.5-komiteen sammen med IBM med standardisering av lokale nettverk av store datamaskiner (SNA-nettverksarkitektur). Den velkjente FDDI-standarden er også resultatet av denne ANSI-komiteen. Innen mikrodatamaskiner utvikler ANSI standarder for programmeringsspråk, SCSI-grensesnittet. ANSI har utviklet retningslinjer for portabilitet for C, FORTRAN og COBOL.

Internett-standarder spiller en spesiell rolle i utviklingen av internasjonale åpne standarder. På grunn av den store og stadig økende populariteten til Internett, blir disse standardene de facto internasjonale standarder, hvorav mange får status som offisielle internasjonale standarder gjennom godkjenning av en av organisasjonene ovenfor, inkludert ISO og ITU-T. Det er flere organisatoriske enheter som er ansvarlige for utviklingen av Internett og spesielt for standardisering av internettfasiliteter.

Den viktigste er Internet Society (ISOC) - et profesjonelt samfunn som tar seg av generelle spørsmål om utviklingen og veksten av Internett som en global kommunikasjonsinfrastruktur. ISOC driver Internet Architecture Board (IAB), en organisasjon som fører tilsyn med teknisk tilsyn og koordinering av arbeidet for Internett. IAB koordinerer retningen for forskning og nyutvikling for TCP/IP-stakken og er den endelige autoriteten til å definere nye Internett-standarder.

IAB har to hovedgrupper: Internet Engineering Task Force (IETF) og Internet Research Task Force (IRTF). IETF er en ingeniørgruppe som fokuserer på å løse Internetts umiddelbare tekniske problemer. Det er IETF som definerer spesifikasjonene som da blir Internett-standarder. På sin side koordinerer IRTF langsiktige forskningsprosjekter på TCP/IP-protokoller.

I enhver organisasjon som er involvert i standardisering, består prosessen med å utvikle og vedta en standard av en rekke obligatoriske stadier, som faktisk utgjør standardiseringsprosedyren. La oss se på denne prosedyren ved å bruke eksempelet på utvikling av Internett-standarder.

Først introduserer IETF den såkalte arbeidsutkast (utkast) i et skjema som er tilgjengelig for kommentarer. Det publiseres på Internett, hvoretter et bredt spekter av interesserte parter er inkludert i diskusjonen om dette dokumentet, det gjøres korrigeringer i det, og til slutt kommer øyeblikket når innholdet i dokumentet kan registreres. På dette stadiet tildeles prosjektet et RFC-nummer (ev «. Et annet scenario er at arbeidsutkastet etter diskusjon avvises og fjernes fra Internett).

Etter å ha tildelt et nummer, får prosjektet status foreslått standard. Innen 6 måneder er denne foreslåtte standarden testet av praksis, som følge av at det gjøres endringer.

Hvis resultatene av praktisk forskning viser effektiviteten til den foreslåtte standarden, blir den, med alle endringene som er gjort, tildelt statusen utkast til standard. Deretter, i minst 4 måneder, gjennomgår den ytterligere "styrketester", som inkluderer opprettelse av minst to programvareimplementeringer.

Hvis det ikke ble gjort noen rettelser til dokumentet mens det var i rangering av standardutkast, kan det bli tildelt statusen offisiell standard Internett. En liste over godkjente offisielle Internett-standarder er publisert som et RFC-dokument og er tilgjengelig på Internett. Det skal bemerkes at alle Internett-standarder kalles RFC-er med tilsvarende serienummer, men ikke alle RFC-er er Internett-standarder - ofte er disse dokumentene kommentarer til en standard eller ganske enkelt beskrivelser av et Internett-problem.

1.3.7. Standard kommunikasjonsprotokollstabler

Det viktigste området for standardisering innen datanettverk er standardisering av kommunikasjonsprotokoller. For tiden bruker nettverk et stort antall kommunikasjonsprotokollstabler. De mest populære stablene er: TCP/IP, IPX/SPX, NetBIOS/SMB, DECnet, SNA og OSLBce, i tillegg til SNA på de lavere nivåene - fysisk og datalink - bruker de samme godt standardiserte protokollene Ethernet, Token;

Ring, FDDI og noen andre, som lar deg bruke samme utstyr i alle nettverk. Men på de øvre nivåene fungerer alle stabler på hver sin måte! egne protokoller. Disse protokollene er ofte ikke det som anbefales! OSI modell for lagdeling. Spesielt funksjonene til sesjons- og presentasjonslagene kombineres vanligvis med applikasjonslaget. Dette avviket skyldes at OSI-modellen dukket opp som et resultat av en generalisering av eksisterende og faktisk brukte stabler, og ikke omvendt.

Det er et klart skille mellom OSI-modellen og OSI-stakken. Mens OSI-modellen er | er et konseptuelt diagram for samspillet mellom åpne systemer, OSI-stakken er representert av | er et sett med veldig spesifikke protokollspesifikasjoner. I motsetning til andre protokollstabler, er OSI-stakken fullstendig kompatibel med OSI-modellen, og inkluderer protokollspesifikasjoner for alle de syv interoperabilitetslagene definert av den modellen. På de lavere nivåene støtter OSI-stakken Ethernet, Token Ring FDDI, WAN-protokoller, X.25 og ISDN – det vil si at den bruker protokoller på lavere nivå utviklet utenfor stabelen, som alle andre stabler. Protokollene til nettverks-, transport- og sesjonslagene til OSI-stakken er spesifisert og implementert av forskjellige produsenter, men er ennå ikke utbredt. De mest populære protokollene i OSI-stakken er applikasjonsprotokoller. Disse inkluderer: FTAM-filoverføringsprotokoll, VTPJ-terminalemuleringsprotokoll, X.500 helpdesk-protokoller, X.400-e-postprotokoller og en rekke andre. :

Protokollene til OSI-stakken er preget av stor kompleksitet og tvetydighet i spesifikasjonene. Disse egenskapene var et resultat av den generelle policyen til stabelutviklerne, som forsøkte å ta hensyn til alle brukstilfeller og alle eksisterende og nye teknologier i protokollene deres. Til dette må vi også legge konsekvensene av et stort antall politiske kompromisser som er uunngåelige når man vedtar internasjonale standarder på et så presserende spørsmål som bygging av åpne datanettverk.

På grunn av deres kompleksitet krever OSI-protokoller mye CPU-prosessorkraft, noe som gjør dem mer egnet for kraftige maskiner i stedet for personlige datanettverk.

OSI-stakken er en internasjonal, leverandøruavhengig standard. Den støttes av den amerikanske regjeringen gjennom GOSIP-programmet, som krever at alle datanettverk som er installert i amerikanske offentlige etater etter 1990, enten støtter OSI-stakken direkte eller gir et middel til å migrere til den stabelen i fremtiden. Imidlertid er OSI-stakken mer populær i Europa enn i USA fordi det er færre eldre nettverk igjen i Europa som kjører sine egne protokoller. De fleste organisasjoner planlegger fortsatt sin migrering til OSI-stakken, og svært få har startet pilotprosjekter. Blant dem som jobber i denne retningen er US Navy Department og NFSNET-nettverket. En av de største produsentene som støtter OSI er AT&T, Stargroup-nettverket er helt basert på denne stabelen.

TCP/IP-stakken ble utviklet på initiativ fra det amerikanske forsvarsdepartementet for mer enn 20 år siden for å koble det eksperimentelle ARPAnet-nettverket med andre nettverk som et sett med vanlige protokoller for heterogene datamiljøer. Berkeley University ga et stort bidrag til utviklingen av TCP/IP-stakken, som fikk navnet sitt fra de populære IP- og TCP-protokollene, ved å implementere stackprotokollene i sin versjon av UNIX OS. Populariteten til dette operativsystemet førte til utbredt bruk av TCP, IP og andre protokollstabler. I dag brukes denne stabelen til å koble datamaskiner på Internett, så vel som i et stort antall bedriftsnettverk.

TCP/IP-stakken på lavere nivå støtter alle populære standarder for fysiske lag og datalinklag: for lokale nettverk - disse er Ethernet, Token Ring, FDDI, for globale nettverk - protokoller for arbeid med analog oppringt og leide linjer SLIP , PPP, protokoller for territoriale nettverk X.25 og ISDN.

Hovedprotokollene til stabelen, som gir den navnet, er IP og TCP. Disse protokollene, i OSI-modellterminologi, tilhører henholdsvis nettverks- og transportlagene. IP sikrer at pakken går over det sammensatte nettverket, og TCP sikrer påliteligheten til leveringen.

I løpet av mange års bruk i nettverk i forskjellige land og organisasjoner, har TCP/IP-stakken innlemmet et stort antall protokoller på applikasjonsnivå. Disse inkluderer populære protokoller som FTP-filoverføringsprotokollen, telnet-terminalemuleringsprotokollen, SMTP-e-postprotokollen som brukes i Internett-e-post, hyperteksttjenester, WWW-tjenester og mange andre.

I dag er TCP/IP-stakken en av de vanligste transportprotokollstakkene i datanettverk. Faktisk kobler Internett alene rundt 10 millioner datamaskiner rundt om i verden som samhandler med hverandre ved hjelp av TCP/IP-protokollstabelen.

Den raske veksten i populariteten til Internett har også ført til endringer i maktbalansen i verden av kommunikasjonsprotokoller – TCP/IP-protokollene som Internett er bygget på begynte raskt å skyve den ubestridte lederen fra de siste årene til side – Novells IPX/SPX stack. I dag i verden har det totale antallet datamaskiner som TCP/IP-stakken er installert på blitt lik det totale antallet datamaskiner som IPX/SPX-stakken kjører på, og dette indikerer en kraftig endring i holdningen til lokale nettverksadministratorer til protokollene som brukes på stasjonære datamaskiner, siden De utgjør det overveldende flertallet av verdens datapark, og det var på dem Novells protokoller, nødvendige for tilgang til NetWare-filservere, pleide å fungere nesten overalt. Prosessen med å etablere TCP/IP-stakken som nummer én-stabelen i alle typer nettverk fortsetter, og nå inkluderer ethvert industrielt operativsystem nødvendigvis en programvareimplementering av denne stabelen i leveringspakken.

Selv om TCP/IP-protokollene er uløselig knyttet til Internett og hver av multimillion-dollar armadaen av Internett-datamaskiner kjører på grunnlag av denne stabelen, er det et stort antall lokale, bedrifts- og territorielle nettverk som ikke er direkte deler av Internett, som også bruker

TCP/IP-protokoller. For å skille dem fra Internett kalles disse nettverkene TCP/IP-nettverk, eller rett og slett IP-nettverk.

Fordi TCP/IP-stakken opprinnelig ble laget for det globale Internett, har den mange funksjoner som gir den en fordel i forhold til andre protokoller når det gjelder å bygge nettverk som inkluderer bredområdekommunikasjon. Spesielt en veldig nyttig funksjon som gjør det mulig å bruke denne protokollen i store nettverk er evnen til å fragmentere pakker. Et stort sammensatt nettverk består faktisk ofte av nettverk bygget på helt andre prinsipper. Hvert av disse nettverkene kan angi sin egen verdi for maksimal lengde på en enhet med overførte data (i pa). I dette tilfellet, når du flytter fra ett nettverk med en større maksimal lengde til et nettverk med en kortere maksimal lengde, kan det være nødvendig å dele den overførte rammen i flere deler. IP-protokollen til TCP/IP-stakken løser dette problemet effektivt.

En annen funksjon ved TCP/IP-teknologi er dets fleksible adresseringssystem, som gjør det enklere å inkludere nettverk med andre teknologier på Internett sammenlignet med andre protokoller med lignende formål. Denne egenskapen fremmer også bruken av TCP/IP-stakken for å bygge store heterogene nettverk.

TCP/IP-stakken bruker kringkastingsfunksjoner svært sparsomt. Denne egenskapen er helt nødvendig når du arbeider med langsomme kommunikasjonskanaler som er karakteristiske for territorielle nettverk.

Men som alltid må du betale for fordelene du får, og prisen her er høye ressurskrav og kompleksiteten ved å administrere IP-nettverk. Den kraftige funksjonaliteten til TCP/IP-protokollstabelen krever høye beregningskostnader å implementere. Fleksibelt adresseringssystem! og avslag på sendinger fører til tilstedeværelse i IP-nettverket av ulike sentraliserte tjenester som DNS, DHCP, etc. Hver av disse tjenestene er rettet mot å lette nettverksadministrasjon, inkludert å lette utstyrskonfigurasjon, men samtidig krever det i seg selv tett oppmerksomhet fra administratorer.

Det er andre argumenter for og imot Internett-protokollstakken, men faktum er at det i dag er den mest populære protokollstakken, mye brukt i både globale og lokale nettverk.

IPX/SPX stack

Denne stabelen er den originale Novell-protokollstabelen, utviklet for NetWare-nettverksoperativsystemet på begynnelsen av 80-tallet. Nettverks- og sesjonslagsprotokollene Internetwork Packet Exchange (IPX) og Sequenced Packet Exchange (SPX), som gir stabelen navnet, er en direkte tilpasning av Xerox XNS-protokollene, som er mye mindre utbredt enn IPX/SPX-stakken. Populariteten til IPX/SPX-stakken er direkte relatert til Novell NetWare-operativsystemet, som fortsatt beholder verdensledende posisjon i antall installerte systemer, selv om populariteten nylig har sunket noe og veksthastigheten ligger etter Microsoft Windows NT.

Mange funksjoner i IPX/SPX-stakken skyldes orienteringen til tidlige versjoner av NetWare OS (opptil versjon 4.0) for arbeid i små lokale nettverk bestående av personlige datamaskiner med beskjedne ressurser. Det er klart at for slike datamaskiner trengte Novell protokoller som ville kreve en minimumsmengde RAM (begrenset i IBM-kompatible datamaskiner som kjører MS-DOS med en kapasitet på 640 KB) og som ville kjøre raskt på prosessorer med lav prosessorkraft. Som et resultat fungerte IPX/SPX stackprotokollene inntil nylig bra i lokale nettverk og ikke så godt i store bedriftsnettverk, siden de overbelastet langsomme globale koblinger med kringkastingspakker som brukes intensivt av flere protokoller i denne stabelen (for eksempel til etablere kommunikasjon mellom klienter og servere). Denne omstendigheten, samt det faktum at IPX/SPX-stakken er proprietær til Novell og krever en lisens for å implementere den (det vil si at åpne spesifikasjoner ble ikke støttet), begrenset i lang tid bare distribusjonen til NetWare-nettverk. Siden utgivelsen av NetWare 4.0 har imidlertid Novell gjort og fortsetter å gjøre store endringer i protokollene sine for å tilpasse dem til å fungere i bedriftsnettverk. Nå er IPX/SPX-stakken implementert ikke bare i NetWare, men også i flere andre populære nettverksoperativsystemer, for eksempel SCO UNIX, Sun Solaris, Microsoft Windows NT.

NetBIOS/SMB stack

Denne stabelen er mye brukt i produkter fra IBM og Microsoft. På de fysiske nivåene og datalinknivåene til denne stabelen brukes alle de vanligste protokollene: Ethernet, Token Ring, FDDI og andre. NetBEUI- og SMB-protokollene fungerer på de øvre nivåene.

NetBIOS (Network Basic Input/Output System)-protokollen dukket opp i 1984 som en nettverksutvidelse av standardfunksjonene til IBM PC Basic Input/Output System (BIOS) for IBM PC Network-programmet. Denne protokollen ble senere erstattet av den såkalte NetBEUI - NetBIOS Extended User Interface-protokollen. For å sikre applikasjonskompatibilitet ble NetBIOS-grensesnittet beholdt som et grensesnitt til NetBEUI-protokollen. NetBEUI-protokollen ble designet for å være en effektiv protokoll med lite ressurser for nettverk med ikke mer enn 200 arbeidsstasjoner. Denne protokollen inneholder mange nyttige nettverksfunksjoner som kan tilskrives nettverks-, transport- og sesjonslagene til OSI-modellen, men den ruter ikke pakker. Dette begrenser bruken av NetBEUI-protokollen til lokale nettverk som ikke er delt inn i subnett, og gjør det umulig å bruke den i sammensatte nettverk. Noen av begrensningene til NetBEUI fjernes av NBF (NetBEUI Frame)-implementeringen av denne protokollen, som er inkludert i operativsystem Microsoft Windows NT.

SMB-protokollen (Server Message Block) utfører funksjonene til økten, presentasjonen og applikasjonslagene. SMB brukes til å implementere filtjenester, samt utskrifts- og meldingstjenester mellom applikasjoner.

SNA-protokollstablene fra IBM, DECnet fra Digital Equipment Corporation og AppleTalk/AFP fra Apple brukes hovedsakelig i operativsystemene og nettverksutstyret til disse selskapene.

Ris. 1.30. Samsvar av populære protokollstabler med OSI-modellen

I fig. Figur 1.30 viser samsvaret mellom noen av de mest populære protokollene til nivåene til OSI-modellen. Ofte er denne korrespondansen veldig betinget, siden OSI-modellen bare er en veiledning til handling, og ganske generelle og spesifikke protokoller ble utviklet for å løse spesifikke problemer, og mange av dem dukket opp før utviklingen av OSI-modellen. I de fleste tilfeller har stabelutviklere prioritert nettverkshastighet fremfor modularitet - ingen annen stabel enn OSI-stakken er delt inn i syv lag. Oftest er 3-4 lag tydelig skilt i stabelen: nivået på nettverkskort, som implementerer protokoller for fysiske lag og datalinklag, nettverkslaget, transportlaget og tjenestenivået, som inkluderer funksjonene til økten , representative og applikasjonslag.

I datanettverk er det ideologiske grunnlaget for standardisering en flernivåtilnærming til utvikling av nettverksinteraksjonsverktøy.

Formaliserte regler som bestemmer rekkefølgen og formatet til meldinger som utveksles mellom nettverkskomponenter som befinner seg på samme nivå, men i forskjellige noder, kalles en protokoll.

Formaliserte regler som bestemmer samspillet mellom nettverkskomponenter til nabonivåer til en node kalles et grensesnitt. Et grensesnitt definerer et sett med tjenester som et gitt lag gir til dets nabolaget.

Et hierarkisk organisert sett med protokoller som er tilstrekkelig til å organisere interaksjonen mellom noder i et nettverk kalles en kommunikasjonsprotokollstabel.

Et åpent system kan defineres som ethvert system som er bygget i henhold til offentlig tilgjengelige spesifikasjoner som er i samsvar med standarder og aksepteres gjennom offentlig diskusjon av alle interesserte parter.

OSI-modellen standardiserer sammenkoblingen av åpne systemer. Den definerer 7 nivåer av interaksjon: applikasjon, presentasjon, økt, transport, nettverk, kanal og fysisk.

Det viktigste området for standardisering innen datanettverk er standardisering av kommunikasjonsprotokoller. De mest populære stablene er: TCP/IP, IPX/SPX, NetBIOS/SMB, DECnet, SNA og OSI.

På grunn av krisen som brøt ut i IT-bransjen i 2000, måtte utgangspunktet for den nye dataalderen flyttes. Ifølge bransjeanalytikere endrer situasjonen seg til det bedre i år. Innen datateknologi vil nedgangen i produksjonen ta slutt, og det forventes vekst i 2004 og påfølgende år, og med en merkbar akselerasjon. Det er da, med et skifte på fem år, vil den nye datamaskinen 21. århundre mest sannsynlig begynne.

Og før, i den nåværende overgangsperioden, spesielt på tampen av nyttår, er det et helt naturlig ønske om å se utover horisonten og se hva som venter oss i det neste århundre. Å henvende seg til de samme analytikerne lar oss ikke se de dype endringene som ligger bak teknologier og bringe dem til live. Analytikere ser ut til å bruke meteorologens velkjente regel: sannsynligheten for at dagens vær vedvarer inn i morgen er 70 %, så hvis du vil lage en prognose med en sannsynlighet høyere enn 50 %, gjør direkte ekstrapolering. Etter denne regelen, nesten uten unntak, snakker analytikere om kvantitative endringer i kjente fenomener. Her om dagen stilte jeg et spørsmål til visepresidenten for forskning i et av de største analytiske selskapene, med et ønske om å finne ut hvorfor rapportene og prognosene er så formelle, blottet for i det minste elementer av vitenskaplighet eller sann analytisitet. Her er hans bokstavelige svar (jeg utelater firmanavnet av åpenbare grunner): «Bedrift N er ikke en akademisk tenketank. De fleste av Ns ansatte har ikke informatikkutdanning. N er et rådgivningsselskap for forbrukere, for de som velger beste teknologier for forholdene til virksomheten din. Vi er ikke vitenskapelige konsulenter."

Det var mulig i tidligere år å komme med spådommer mens de forble utelukkende teknologisk. Den nåværende databehandlingstilstanden avslører kvalitativt nye funksjoner; Blant dem er forsøk på å bygge systemer med selvregulering og skape virksomheter som opererer i sanntid, forsøk som ikke passer inn i de vanlige stereotypiene. De utmerker seg ved deres forbindelse ikke så mye med teknologi, men med metoder for å lage nye typer systemer ved hjelp av eksisterende og lovende teknologier. Disse så langt beskjedne forsøkene indikerer at ganske tilstrekkelig mengde teknologi allerede har blitt akkumulert til å bygge systemer ikke på intuitive ideer, men på grunnlag av kybernetiske prinsipper - først og fremst ved å bruke tilbakemelding.

Tilbakemeldingsmekanismen lar systemer av enhver type - levende, mekaniske, elektriske, sosiale - forbli i en tilstand av likevekt (eller, som det oftere kalles, homeostase). Tilbakemelding stabiliserer ikke bare prosesser, men fungerer også som en mekanisme som letter deres utvikling; Til og med Charles Darwin satte pris på viktigheten av tilbakemelding i evolusjonen. Prinsippet for tilbakemeldingskontroll innebærer å kontinuerlig sammenligne systemets nåværende tilstand med den ønskede og generere styresignaler basert på forskjellen oppnådd som et resultat av sammenligningen. Tilbakemelding lar deg bygge komplekse, selvadministrerende tekniske systemer; For hvordan det har blitt brukt til kontrollformål gjennom århundrene, se sidefeltet "Fra historien om tilbakemeldinger."

Hvor rart det kan virke, blir prinsippene for tilbakemelding fortsatt brukt ekstremt lite i datasystemer. Bare i i fjor de begynte å snakke om selvstyrende datasystemer (autonomic computing), om datamaskiner med evne til selvhelbredelse (selvhelbredende), om asynkrone prosessorer, der tilbakemeldinger dekker individuelle logiske komponenter. Drivkraften for dannelsen av disse nye synspunktene var det nye problemet med kompleksitet.

Reinkarnasjon av tilbakemelding

Det lite kjente, men svært innflytelsesrike amerikanske byrået Office of Force Transformation, ansvarlig for å vurdere teknologiske trender og rapportere direkte til USAs forsvarsminister, mener at tilbakemeldinger er nettopp det som vil endre datasystemene. En relatert rapport med tittelen Transformation Trends, som siterer den britiske akademikeren Steve Grand som talsmann for tilbakemelding, sier: «Tilbakemeldingsbaserte systemer vil endre ikke bare måten individuelle selskaper er organisert på, men nasjonale økonomier som helhet. Dette vil imidlertid kreve opprettelsen av ny matematikk og fysikk, og en ny forståelse av verden som helhet."

En annen bemerkelsesverdig publikasjon, "Return to Self-Regulatory Systems," dukket opp for litt over et år siden i et av de mest innflytelsesrike forretningsmagasinene, Forbes ( http://www.forbes.com/asap/2002/1007/020_print.html). Den er helt viet tilbakemeldingsproblemer. Selve publiseringen av artikkelen og dens innhold fortjener stor oppmerksomhet. For det første, etter tiår med stillhet eller, mer sannsynlig, bevisst stillhet, ble kybernetiske kontrollmetoder igjen diskutert offentlig. For det andre ble det gjort på en ny måte; Utenfor parentesene er en haug med kunstig og derfor ubrukelig kunnskap generert på 60- og 70-tallet. «Kybernetistene» i disse årene bygde sitt eget «elfenbenstårn» av det, låste seg inne i det og fremmedgjorde derved mennesker med en praktisk tenkemåte. På grunn av splittelsen mellom bærerne av kybernetisk kunnskap og tilhengerne av masseteknologi, var det tap av kontinuitet; som et resultat, i dag må vi igjen forklare det grunnleggende om kybernetikk, som er nøyaktig hva Michael Malone, forfatteren av en artikkel i Forbes, gjør. Han forklarer populært viktigheten av tilbakemelding i levende natur og i teknologi, selv om dette, det ser ut til, burde være kjent for enhver utdannet person.

Som den nyeste og vakre eksempler Malones bruk av tilbakemeldinger siterer den nylig oppfunne Segway-scooteren, så vel som sanntids bedriftsstyringssystemer. Vi kommer tilbake til bedriftsstyringssystemer senere. Når det gjelder Segway, er det virkelig et unikt bevegelig system; Jeg hadde sjansen til å sykle et par titalls meter på denne scooteren og opplevde en fantastisk sensasjon. Muligheten for denne scooteren til å bevege seg uvanlig er gitt av et svinghjul og ettem. Forresten, vår landsmann P.P. Shilovsky prøvde å gjøre noe lignende for 90 år siden, men da var det urealistisk å lage et fullverdig kontrollsystem først nå for dette formålet, en kraftig datamaskin er innebygd i Segway.

Tilbakemelding begynner å bli inkorporert i eksperimentelle produkter og andre nye teknologier. Forbes trekker frem flere eksempler, inkludert arbeidet til Federico Faggin, en av oppfinnerne av mikroprosessoren og grunnleggeren av Zilog. Hos sitt nåværende selskap, Synaptics, jobber Fagin med en helt ny type prosessor. En slik prosessor vil kunne bygges om i samsvar med de nødvendige funksjonene den kan konfigureres for den mest effektive bruken som en testprosessor, en aritmetisk maskin, en prosessor for mobiltelefon eller mikrokontroller. Et eksempel til. Ved Caltech utvikler dataindustriens veteran professor Karved Meed et videokamera med et stabiliseringssystem som ligner på det menneskelige øyet.

Tiltroen til at den kybernetiske tilnærmingen vil bli en av de ledende i fremtiden er basert på det faktum at datasystemer har nådd grenser som ikke kan overvinnes uten den. Disse grensene er en utfordring av kompleksitet, så vel som behovet for å lage sanntidskontrollsystemer.

Kompleksitetskrisen og programledelse

En av årsakene til den moderne krisen innen databehandling - kanskje den viktigste - ligger i teknologiens åpenbare, men få anerkjente, forrang fremfor vitenskap, forrangen til den ingeniørmessige tenkemåten fremfor den vitenskapelige eller filosofiske stilen, som har blitt etablert. i løpet av de siste tiårene. Som et resultat av en skredlignende og ukontrollerbar teknologisk vekst, stimulert ikke så mye av reelle behov som av særegenhetene ved datamarkedet, ble det generert et vanvittig antall forskjellige typer teknologier og teknologiske løsninger, som konstant negerte hverandre. Informasjonssystemer har blitt et monstrøst konglomerat av produkter. Som en konsekvens kom problemet med kompleksitet for dagen i de første årene av det nye årtusenet. Det var en ubehagelig overraskelse at systemer, spesielt programvare, var blitt for komplekse. I 2003 ble kompleksitet et av de heteste temaene, men ingen som snakker om problemene med kompleksitet i IT stilte spørsmålet: «Hvorfor kom databehandling inn i kompleksitetsproblemet? Hvorfor snakker ikke moderne fysikere, biologer eller astronomer om kompleksiteten til faget deres, mangler de kompleksitet?»

Viftemaskin, Kina

Ganske nylig hadde jeg muligheten til å diskutere problemet med kompleksiteten til programvaresystemer med hovedideologen til et av de mest kjente selskapene som leverer programvare for applikasjonsutvikling. Jeg kommuniserte med ham før, og på bakgrunn av tidligere samtaler fikk jeg inntrykk av ham som en person, om ikke av akademikere, så i alle fall av ganske brede syn. Men så snart vi begynte å diskutere kompleksitetsproblemer, viste samtalepartneren min en overraskende mangel på kunnskap innen systemteori. Det viste seg at all hans lærdom er innenfor grensene programvareteknologier. Jeg kunne ikke unngå å ville sammenligne det med det som kalles "lukkede systemer", hvis modernisering krever en "ytre impuls."

Hvorfor er dette mest interessant og den smarteste personen viser seg å være rett og slett hjelpeløs når han må utover grensene for sin spesialitet, utenfor grensene for programmering som er velkjent for ham? Jeg vil risikere å gi en forklaring som kan forårsake uenighet eller til og med sinne hos mange. Etter min mening ligger poenget i selve faget – i programmering og i holdning til det.

Vi er så vant til programvare som gjenstand for aktiviteten vår at vi helt har glemt den opprinnelige betydningen av ordet "program". Og i engelske språk, og den kom inn i det russiske språket som et resultat av lån fra fransk ord program. (Forresten, dette er grunnen til at vi på russisk skriver DETTE ordet med to "m".) Dets røtter er greske, prographein betyr "skrevet på forhånd" (pro - "på forhånd", grafhein - "å skrive"). Programkontroll forutsetter at et program som er skrevet på forhånd for en enhet, blir utført av den som tiltenkt. Følgelig ligger kunsten med enhver programmering, inkludert dataprogrammering, i å ta hensyn til absolutt alle mulige faktorer og forhold i det ytre miljøet, og hvis de tas i betraktning absolutt nøyaktig, har programmet muligheten til å bli utført vellykket, men enhver ekstern uforutsett forstyrrende påvirkning og program maskinen løper løpsk. Programvarekontroll kan med hell manipulere en enhet som er løst koblet til det ytre miljøet, for eksempel en vaskemaskin eller en datamaskin designet for å behandle kjente data.

Merkelig nok var det arkaisk programvarekontroll som var og forblir grunnlaget for moderne datasystemer; Datamaskinen kjører i henhold til et forhåndsopprettet program. Som et resultat forblir både avanserte moderne programmeringsmetoder og høyteknologiske datamaskiner selv, med sjeldne unntak, ideologisk nær den aller første primitive programmerbare automaten. Kobberskiven med hull ble erstattet av minne, systemet med spaker ble erstattet av prosessorer, men ideen om å utføre et forhåndsbestemt program forble. I hovedsak, i den mest moderne datamaskinen er alt nøyaktig det samme som det var i Charles Babbages Analytical Engine. Den eneste forskjellen er von Newman-skjemaet, ifølge hvilket programmer og data lagres i samme minne. Nesten det eneste tilbakemeldingsundersystemet er den automatiske viften som slås på.

På 60- og 70-tallet, isolert, ble svært få forsøk på alternative tilnærminger oppdaget, men de ble rett og slett knust av aktivt utvikling av teknologier. Selve ordet "teknologi" har kommet i forgrunnen. I dag kalles alt som gjøres ved hjelp av datamaskiner for informasjonsteknologi. Det er en erstatning av målet med midlene. I løpet av årene siden den gang har spesialister vokst opp og inntatt nøkkelposisjoner uten den minste anelse om kybernetikk som en ledelsesvitenskap. Ikke bare kjenner de ikke navnene til Gregory Bateson eller Ludwig von Bertalanffy, de kan knapt huske hvem Norbert Wiener var. De opererer enkelt og greit med konsepter som "system", "sanntid", "tilbakemelding", "forsinkelse", men har ingen anelse om hvor de kom fra. For denne generasjonen av spesialister virker teknologiens forrang fremfor vitenskapen ganske naturlig. Dessuten har deres aggressive holdning til vitenskap historiske analogier: dette er hvordan kultur og vitenskap blir behandlet i tider da samfunnet er på vei til regresjon.

Men programkontroll setter per definisjon grenser for kompleksiteten til systemet, fordi muligheten til å ta hensyn til flere og flere faktorer ikke er ubegrenset. Siden programvarekontrollerte systemer har en begrensning på kompleksitet, er derfor kompleksitetskrisen i datasystemer ikke noe mer enn en krise av selve prinsippet om programkontroll, som de har blitt bygget på til nå. I mellomtiden er det eneste alternativet til programstyring tilbakemeldingskontroll, som tar hensyn til ytre påvirkninger og justerer oppførselen til det kontrollerte objektet deretter.

Det er ingen tilfeldighet at IBM var en av de første som snakket om problemene gjennom munnen til sin sjefforsker Paul Horn, forfatteren av Autonomic Computing-memorandumet. (Av en eller annen grunn er autonom i dette navnet oversatt med ordet «autonom», selv om «selvstyrt» ville være mer nøyaktig.) Notatet sier at tiden er inne for å bygge datasystemer som må fungere automatisk og svare til endringer i miljøet. miljø, reparere seg selv når funksjonsfeil oppstår, og har noe som et immunsystem. Arbeid lignende i ideologi utføres av Berkeley University-professor Dave Patterson, den samme som vi skylder ideene til RAID-diskarrayer og RISC-prosessorer.

Tilbakemelding og RTE

Den umiddelbare grunnen og dessuten stimulansen for at denne artikkelen dukket opp, var et besøk på symposiet som Gartner-gruppen arrangerer i Cannes hver høst. Vanligvis kan det som skjer her karakteriseres av et ord fra vokabularet til motespesialister - "predaporte". Publikum presenteres for en vurdering av de umiddelbare utsiktene for IT og et blikk utover horisonten begrenset til de neste fem til syv årene. Som du kanskje forventer, var begrepet som ble brukt oftest her i 2003 sanntid. En analyse av konferansedisken overbeviser oss om dette: dette begrepet finnes i mer enn en tredjedel av presentasjonene publisert på den av totalt over tre hundre. Statistikk viser at ordene Sanntid oftest var inkludert i sirkulasjonen av «sanntidsbedrift» (Real Time Enterprise, RTE), men ble også brukt i kombinasjon med ordene «arbeid» (Sanntidsarbeid), «infrastruktur» ( Sanntidsinfrastruktur), «interaksjon» (Sanntidssamarbeid) og ikke mindre enn et dusin andre. En slik klar dominans av ett konsept trenger åpenbart forklaring, spesielt siden RTE-spørsmålet var til stede i en eller annen form i alle sentrale taler.

Programmerbar automat fra 1600-tallet

Økt oppmerksomhet rundt RTE kan også betraktes som et annet markedsføringsgrep som har som mål å tiltrekke seg nye investeringer innen IT – vi har sett mange slike presedenser de siste årene. Men kanskje (og dette, etter min mening, er mer sannsynlig), er det grunn til å tro at vi er vitne til svært alvorlige endringer, hvis navn er Real-Time generelt og Real Time Enterprise også.

Anvendelsen av begrepet sanntid på bedriften som helhet, i motsetning til den tradisjonelle ideen om sanntid som en egenskap ved tekniske systemer, må diskuteres fra et forretningsmessig synspunkt. Gartner-gruppen, som er i nettopp denne forretningsposisjonen, forstår RTE som en type bedrift som oppnår konkurransefortrinn gjennom rask bruk av informasjon om hendelser og reduserer forsinkelser i beslutningstaking. RTE anses som et teknologisk grunnlag ny tilnærming, som kalles databehandling i "sanntid", eller i "nær sanntid" (nær sanntid), eller i "riktig tid" (riktig tid), eller ganske enkelt "på tid". Til syvende og sist kommer overgangen til "sanntid" ned på det åpenbare ønsket om å redusere forsinkelsen mellom øyeblikket en hendelse oppdages og reaksjonen på den. Uansett hva du kaller denne tilnærmingen, endres ikke essensen - informasjonssystemet basert på den gir beslutningstakere oppdatert informasjon og evnen til å ta beslutninger med den hastigheten virksomheten krever.

Det finnes andre tilsvarende definisjoner basert på omtrent samme premisser fra næringssiden. En av de mest kjente RTE-evangelistene, forfatter av The Real-Time Enterprise and Business Process Management: The Third Wave, Peter Fingar gir følgende definisjon: "Sanntidsledelse inkluderer både taktiske handlinger for å allokere ressurser og løse strategiske problemer."

Aberdeen Group mener at RTE gir virkelige virksomheter tre typer forretningsfordeler: proaktiv ledelse, taktisk respons og strategisk fleksibilitet. Følgelig kan sanntidsdatabehandling, fra samme forretningssynspunkt, ikke lenger bare betraktes som et isolert sett med teknologier, det akkumulerer bedriftens infrastruktur og til og med bedriftskulturen til bedriften. For å implementere denne typen databehandling, er det nødvendig å gå utover etablerte ideer, revurdere holdningen til informasjonsressurser: vurdere hvilke data som skal være tilgjengelige i utgangspunktet og hva er kravene til nøyaktigheten av datapresentasjonen. Lederpersonell og utøvere bør få riktig opplæring, og forholdet til leverandører og kunder bør forbedres.

Det er fortsatt vanskelig å begrense mengden teknologier som gir RTE. Det er åpenbare krav, de må gi et svar på eksterne forhold ("hendelse" - hendelse, "alarm" - varsling), de må tilby praktiske "administrasjonsdashboards", støtte en rekke mobile enheter. Støtteteknologier bør inkludere innebygde DBMS-er i sanntid, analyseapplikasjoner, applikasjonsintegrasjonsmeglere, inkludert meldingsorientert mellomvare (MOM), samt portalteknologier og kunnskapsstyringsverktøy. RTE-tilhengere mener at "private" løsninger som Customer Relationship Management (CRM), Supply Chain Management (SCM) og Enterprise Resource Planning (ERP)-applikasjoner vil smelte sammen." på plattformen" av verktøy for forretningsprosessstyring (Business Process Management, BPM).

Analytikere fra Gartner Group mener at i løpet av de neste femten årene vil viktige endringer i IT være forbundet med opprettelsen av systemer som gir bedriftsledelse uten tidsforsinkelser i administrasjonen (null latency). Som et resultat av dette vil de fleste seriøse virksomheter bli administrert i sanntid i årene som kommer. De som ikke blir med i denne prosessen vil begynne å oppleve farlige konkurransevansker i løpet av de neste fem til åtte årene.

Dessverre kan ikke det metodiske nivået som RTE-problemer ble diskutert på under symposiet anses som tilfredsstillende. Ekspertenes taler var preget av overdreven pretensiøsitet, som oftest representerte et sett med slagord. En analogi med de alltid minneverdige "appellene fra CPSUs sentralkomité", som ble publisert to ganger i året, på tampen av revolusjonære høytider, antyder ufrivillig seg selv. De nåværende "samtalene" fra Gartner symboliserer kvelden for "post-Internett"-økonomien, der den avgjørende faktoren er hastigheten på beslutningsprosessen. Nedenfor er noen av dem (merk at de er de mest informative).

  • For å trives i den nye økonomien, må bedrifter identifisere kritiske forretningshendelser og forløperne til disse hendelsene.
  • Innen 2006 vil mer enn 70 % av store foretak analysere hendelser i sanntid (sannsynlighet 0,8).
  • I løpet av de neste tre årene må bedrifter ta i bruk tjenesteorienterte forretningsapplikasjoner (SOBA) for å oppnå forretningseffektivitet.

Det er ingen tilfeldighet at en av rapportene konkluderte: «Selv om vi definerer sanntidsbedriften som et forretningsmål, kan vi foreløpig hovedsakelig snakke om IT. Samtidig kan en bedrift utvikle seg uten IT, eller den kan degraderes selv med tilstedeværelse av teknologi; kvaliteten på ledelsen er avgjørende." Hvem vet, kanskje ble dette sagt fordi i Cannes er det hovedsakelig ikke tekniske spesialister som samles, men de som tar beslutninger, og Gartner-eksperter forsøkte å formidle til denne kategorien lyttere hva de anser som det viktigste - på en tilpasset og mer kjent måte disse formene.

Noen få oppklarende kommentarer må komme med. En av dem kan virke rent terminologisk, men det er mulig at det er nettopp dette som er av avgjørende betydning. Vi oversetter til russisk to engelske ord ledelse og kontroll i ett ord - "ledelse". Førstnevnte er definert i Merriam-Webster-ordboken som "kunsten" eller "ledelsens handling", dvs. ledelse av noe» eller tilsyn med noe. Den andre er nærmere betydningen av "regulering". I denne tolkningen er det ganske subtile terminologiske forskjeller, det er ingen tilfeldighet at den samme disiplinen kalles både teorien om automatisk regulering og teorien om automatisk kontroll. Så i diskusjoner om spørsmål knyttet til RTE, betyr de vanligvis bare ledelse i betydningen ledelse, og mangler fullstendig reguleringsaspektet. Tilten mot ledelse fører til merkelige konsekvenser, først og fremst til at prestasjonene til kybernetikk og generell systemteori blir liggende bakover. Diskusjonen føres i et slags fuglespråk, bestående av private og helt spesifikke begreper og handlinger, uten det rette generaliseringsnivået.

Det andre punktet er knyttet til det stadig gjentatte refrenget om at RTE ikke er noe annet enn et svar på forretningskrav. I matematikk snakker de om nødvendige og tilstrekkelige forhold som gjør tilværelsen mulig. Behovet fra næringslivet kan anses som en nødvendig betingelse, og en tilstrekkelig betingelse er utviklingsnivået for vitenskap og teknologi. Inntil nylig var det ingen teknologisk mulighet til å bygge et fullverdig automatisert bedriftsstyringssystem som opererer i sanntid. Et velkjent postulat av kontrollteori er at kontrollsystemet må være tilstrekkelig i kompleksitet til det kontrollerte objektet først nå, når moderne nettverksinfrastrukturer og datamaskiner har dukket opp, har den tekniske evnen til å bygge RTE blitt dannet. Først de siste årene har et kompleks av teknologier dukket opp, alt fra produktidentifikasjon ved hjelp av radio (Radiofrekvensidentifikasjon, RFID) og personellidentifikasjon (Identity Management) til portalteknologier, datavarehus og business intelligence (Business Intelligence, BI), som lar deg sette sammen det nødvendige systemet.

På 60-70-tallet i USSR ble det gjort naive forsøk på å lage automatiserte bedriftsstyringssystemer. Da var de dømt til å mislykkes på grunn av visse sosiale forhold og svakheten i det tekniske grunnlaget. I tillegg ble automatiserte kontrollsystemer unnfanget av mennesker med dyp utdanning og en kybernetisk visjon om problemene som ble løst, men utenfor økonomiske kategorier. Imidlertid var ideen om automatisering attraktiv. Det er ingen tilfeldighet at bruken av kybernetikk i alle slags titler var så populær på den tiden (som ofte førte til vitser, for eksempel at forfatteren tilfeldigvis så manuskriptet til en bok med tittelen "Legal Cybernetics"). År har gått og omtrent de samme tankene blir gjenopplivet under slagordet "Real-Time Enterprise" - dessverre på et annet sted. Nå er apologetene deres spesialister med en ingeniørmessig tenkemåte. Deres forsøk, slik de blir presentert, er mest sannsynlig dømt til å mislykkes på samme måte. Nå, hvis det var mulig å kombinere ACS og RTE... Men hvem vet?

Fra tilbakemeldingshistorikken

Hele historien til teknologiutvikling er direkte knyttet til bruken av tilbakemeldingsprinsipper i ledelsen. Den kan deles inn i tre perioder: antikken, renessansen og den industrielle revolusjon i Europa og den moderne perioden, som begynte i det tiende år av det 20. århundre.

De første kjente enhetene som brukte tilbakemelding var greske vannklokker som dateres tilbake til det 3. århundre f.Kr. Omtrent på samme tid designet Philo of Byzantium en oljelampe, der en tilbakemeldingsmekanisme gjorde at oljenivået kunne holdes på et konstant nivå. I begynnelsen av det første årtusen gjorde de store mekanikkene i Hellas – og spesielt Heron of Alexandria – en rekke forbedringer av vannklokker og skapte mange forskjellige enheter knyttet til tilførsel av vin og andre væsker. Det er også kjente enheter laget av arabiske og kinesiske mekanikere i andre halvdel av det første årtusenet.

En av de første enhetene som brukte tilbakemelding var en klokke, der bevegelsen til viserne var korrelert med en "klokkegenerator", som ble spilt av forskjellige typer pendler. Det er sant at det er umulig å kalle en klokke (mekanisk eller elektronisk) en selvregulerende mekanisme i full forstand, siden den med jevne mellomrom, som en programvareenhet, løper bort eller henger etter og trenger korrigering. Den viktigste oppfinnelsen som gikk ned i tilbakemeldingshistorien og en av de mest betydningsfulle for gjennomføringen av den industrielle revolusjonen var sentrifugalguvernøren foreslått av James Watt for å begrense rotasjonshastigheten til dampmotorakselen. Lignende, men mer primitive enheter ble brukt i vindmøller. Den nøyaktige fødselsdatoen til regulatoren er kjent - det skjedde 28. mai 1788. Det var fra dette øyeblikket den virkelige epoken med damp i industrien begynte. De første forsøkene på å utnytte dampkraft ble gjort mye tidligere; disse var de såkalte damp-atmosfæriske maskinene. I 1712 ble en slik maskin bygget av Thomas Newcomen; Den russiske mekanikeren Ivan Ivanovich Polzunov skapte en lignende maskin i 1766. Imidlertid ble disse maskinene ikke mye brukt fordi de ikke kunne fungere i automatisk modus - de trengte en menneskelig regulator, og som et resultat hadde de lav effektivitet.

Det er verdt å merke seg at Watt-regulatoren ikke var den eneste enheten med tilbakemelding. Temperaturregulatorer laget av Johannes Kepler, Rene Reamur og andre forskere på 1600- og 1700-tallet, samt ulike strømnings- og trykkregulatorer, er kjent. Imidlertid var det først og fremst enheten laget av Watt som gikk ned i historien. Til tross for dens tilsynelatende enkelhet, var prinsippet om drift av regulatoren gjenstand for studier gjennom hele 1800-tallet. De første seriøse matematiske verkene viet tilbakemeldingsanalyse tilhørte den britiske astronomen G.B. Airy, som brukte tilbakemelding for å stabilisere teleskopet. Et viktig bidrag til teorien om stabilisering ble gitt av James Maxwell, som brukte apparatet til differensialligninger for å beskrive bevegelse. Uavhengig av ham ble lignende arbeid utført av den russiske forskeren I.I. Vyshnegradsky. Den første som skapte forutsetningene for moderne ledelsesteori var A.M. Lyapunov; han baserte sin forskning på ikke-lineære differensialligninger. Det skjedde slik at Lyapunovs verk forble ukjent for verdenssamfunnet frem til 60-tallet av forrige århundre.

Den neste industrielle revolusjonen på slutten av 1800- og begynnelsen av 1900-tallet ga ny drivkraft til å lage enheter ved hjelp av tilbakemelding. Luftfart ble et viktig område for deres anvendelse. Alle vet at Wright-brødrene var de første som flyr et fartøy som er tyngre enn luften, men hvorfor akkurat dem, hva var poenget med oppfinnelsen deres? Den avgjørende rollen ble spilt av det faktum at de var i stand til å bruke tilbakemeldingsprinsippet i kontroll for å stabilisere flygingen. Wright-brødrene foreslo en kontrollert vinge, som de inkluderte ailerons i vingedesignet for, hvis drift sikrer stabilitet. I 1914 brukte amerikaneren Elmer Sperry for første gang et gyroskop for å kontrollere ailerons, som opprinnelig var beregnet på skipsnavigasjon. Bruken av et gyroskop for flykontroll så veldig imponerende ut. Over flyplassen forlot piloten (Sperrys sønn) og mekanikeren kontrollen og gikk inn i flyet, som fortsatte sin flytur i automatisk modus.

Elektronikk har gjort det mulig å lage mer effektive kontrollsystemer sammenlignet med mekaniske enheter. De grunnleggende prinsippene ble studert med de første rørforsterkerne, og to kategorier av tilbakemeldinger ble identifisert - positive og negative. Dette arbeidet ble utført, inkludert i California, og de førte til slutt til opprettelsen av verdens datasenter, Silicon Valley. Harry Nyquist spilte en spesiell rolle i studiet av negative tilbakemeldinger. Han var en etterkommer av emigranter fra Sverige, og var en allsidig forsker. Vi skylder ham ideene til fototelegrafen, som i dag er nedfelt i moderne fakser, men han kom inn i teknologihistorien takket være arbeid knyttet til å sikre stabiliteten til forsterkere. Nyquist-kriteriene og Nyquist-teoremet, opprettet i 1932, ble inkludert i alle universitetets elektronikkkurs.

På 1940-tallet ble statistiske metoder brukt på tilbakemeldinger. I USA tilhører palmen Norbert Wiener, han jobbet ved forskningslaboratoriet til Massachusetts Institute of Technology. Noe tidligere har A.N. oppnådd resultater om bruk av probabilistiske metoder i ledelsen. Kolmogorov, men av hensyn til hemmelighold ble de allment kjent mye senere. En av de beste skolene i verden på teorien om automatisk kontroll ble opprettet i USSR den inkluderte dusinvis av navn på forskere i verdensklasse. Det er ingen tilfeldighet at den første konferansen til International Federation of Automatic Control (IFAC) fant sted i Moskva i 1960.

Pioneren innen praktisk bruk av gyroskop var P.P. Shilovsky, en fantastisk person: han klarte å kombinere ingeniøraktiviteter med pliktene til Kostroma-guvernøren. Han skapte, bygget i 1914 og testet selv en tohjuls bil med gyroskopisk stabilisering. Etter dette utviklet han enheter for brannkontroll, for å stabilisere flyflyvningen, og til og med et prosjekt for et monorail-tog.

TEKNOLOGI FOR BEHANDLING AV INDUSTRIINFORMASJON

Den utbredte introduksjonen av informasjonsteknologi og -systemer, databehandling og telekommunikasjonsteknologi i sfærene for økonomisk ledelse, vitenskapelig forskning, produksjon, samt fremveksten av mange selskaper - datamaskinprodusenter og utviklere programvare i siste fjerdedel av forrige århundre førte det ofte til en situasjon der: programvare som fungerer uten problemer på en datamaskin, ikke fungerer på en annen; systemenhetene til en dataenhet har ikke grensesnitt med maskinvaren til en lignende enhet; Selskapets IS behandler ikke kunde- eller klientdata utarbeidet av dem på eget utstyr; Når du laster en side ved hjelp av en "utenlandsk" nettleser, i stedet for tekst og illustrasjoner, vises et meningsløst sett med tegn på skjermen. Dette problemet, som virkelig har påvirket mange forretningsområder, kalles problemet med kompatibilitet av databehandlings-, informasjons- og telekommunikasjonsenheter.

Utviklingen av systemer og midler for datateknologi, telekommunikasjonssystemer og den raske utvidelsen av omfanget av deres anvendelse har ført til behovet for å kombinere spesifikke dataenheter og IS implementert på grunnlag av dem til enhetlige datadatasystemer og miljøer for å danne en enhetlig informasjon plass (Unified Information Area - UIA). Dannelsen av et slikt rom har blitt en presserende nødvendighet for å løse mange av de viktigste økonomiske og sosiale problemene under dannelsen og utviklingen av informasjonssamfunnet.

Et slikt rom kan defineres som et sett av databaser, kunnskapsrepositorier, kunnskapsstyringssystemer, informasjons- og kommunikasjonssystemer og nettverk, metoder og teknologier for deres utvikling, vedlikehold og bruk på grunnlag av enhetlige prinsipper og generelle regler som sikrer informasjonsinteraksjon til møte brukerbehov. Hovedkomponentene i et enhetlig informasjonsrom er:

Informasjonsressurser som inneholder data, informasjon, informasjon og kunnskap, samlet inn, strukturert i henhold til visse regler, forberedt for levering til den interesserte brukeren, beskyttet og arkivert på passende medier;

Organisasjonsstrukturer som sikrer funksjon og utvikling av et enhetlig informasjonsrom og styring av informasjonsprosesser - søk, innsamling, behandling, lagring, beskyttelse og overføring av informasjon til sluttbrukere;

Verktøy for å sikre informasjonsinteraksjon, inkludert maskinvare og programvare, telekommunikasjon og brukergrensesnitt;


Juridiske, organisatoriske og regulatoriske dokumenter som gir tilgang til IR og deres bruk basert på relevant IKT.

Når de dannet et enhetlig informasjonsrom, sto ledere, arkitekter og programvare- og maskinvareutviklere overfor en rekke organisatoriske, tekniske og teknologiske problemer. For eksempel krevde heterogeniteten til tekniske midler for datateknologi når det gjelder organisering av databehandlingsprosessen, arkitektur, kommandosystemer, prosessorkapasitet og databuss opprettelsen av standard fysiske grensesnitt som implementerer gjensidig kompatibilitet av dataenheter. Men med en ytterligere økning i antall typer integrerte enheter (antall slike moduler i moderne distribuerte data- og informasjonssystemer utgjør hundrevis), økte kompleksiteten med å organisere fysisk interaksjon mellom dem betydelig, noe som førte til problemer med å administrere slike systemer.

Heterogeniteten til programmerbare miljøer implementert i spesifikke dataenheter og systemer, når det gjelder variasjonen av operativsystemer, forskjeller i bitdybde og andre funksjoner førte til opprettelsen av programvaregrensesnitt. Heterogeniteten til fysiske grensesnitt og programvaregrensesnitt i systemet "bruker - datamaskinenhet - programvare" krevde konstant koordinering ("dokking") av programvare og maskinvare under utviklingen og hyppig omskolering av personell.

Historien til konseptet med åpne systemer begynner på slutten av 1960-tallet og begynnelsen av 1970-tallet. fra øyeblikket da det presserende problemet med portabilitet (mobilitet) av programmer og data mellom datamaskiner med forskjellige arkitekturer oppsto. Et av de første trinnene i denne retningen, som påvirket utviklingen av datateknologi, var etableringen av IBM-360-serien med datamaskiner, som hadde et enkelt sett med kommandoer og var i stand til å jobbe med det samme operativsystemet. IBM Corporation ga rabatterte lisenser for operativsystemet sitt til brukere som valgte å kjøpe datamaskiner med samme arkitektur fra andre produsenter.

En delvis løsning på portabilitetsproblemet for programmer ble gitt av tidlige språkstandarder på høyt nivå som FORTRAN og COBOL. Språkene tillot opprettelsen av bærbare programmer, selv om de ofte begrenset funksjonaliteten. Senere ble disse mulighetene betydelig økt med fremveksten av nye standarder (utvidelser) for disse språkene. Mobilitet ble også sikret på grunn av at disse standardene ble tatt i bruk av mange utviklere av ulike programvareplattformer. Da programmeringsspråk fikk status som en de facto-standard, begynte nasjonale og internasjonale standardiseringsorganisasjoner å utvikle og vedlikeholde dem. Som et resultat utviklet språk seg uavhengig av skaperne deres. Å oppnå mobilitet og portabilitet allerede på dette nivået var det første eksemplet på de sanne egenskapene til systemene som ble opprettet, som inneholdt hovedtrekkene til det som senere ble kalt "systemets åpenhet."

Neste trinn i utviklingen av åpenhetsbegrepet var andre halvdel av 1970-tallet. Det er assosiert med feltet interaktiv databehandling og det økende volumet av informasjon og programvareprodukter som krever portabilitet (pakker for ingeniørgrafikk, designautomatiseringssystemer, databaser og distribuert databaseadministrasjon). Det digitale selskapet begynte å produsere VAX-minidatamaskiner som kjører VMS-operativsystemet. Maskinene i denne serien hadde allerede en 32-bits arkitektur, som sørget for betydelig effektivitet av programkoden og reduserte kostnadene ved å jobbe med virtuelt minne. Programmerere kunne direkte bruke adresseplass på opptil 4 GB, noe som praktisk talt fjernet alle begrensninger på størrelsen på problemene som ble løst på den tiden. VAX minidatamaskiner av denne typen har for lengst blitt standardplattformen for designsystemer, datainnsamling og prosessering, eksperimentkontroll osv. Det var de som stimulerte etableringen av kraftige datastøttede designsystemer, DBMS og datagrafikk, som er mye brukt til denne dag.

Sent på 1970-tallet preget av den raske utviklingen av nettverksteknologier. Digital har intensivt implementert sin DECnet-arkitektur. Nettverk som bruker Internett-protokoller (TCP/IP), opprinnelig implementert av Defense Advanced Research Projects Agency (DARPA), har blitt mye brukt til å koble sammen ulike systemer. IBM utviklet og implementerte sin egen nettverksarkitektur (System Network Architecture - SNA), som senere ble grunnlaget for OSI-arkitekturen foreslått av ISO.

Det er et tilstrekkelig antall definisjoner av begrepet "åpent system", formulert i ulike standardiseringsorganisasjoner og individuelle store selskaper.

Ifølge eksperter ved National Institute of Standards and Technologies (NIST), er et åpent system et system som er i stand til å samhandle med et annet system ved å implementere internasjonale standardprotokoller. Åpne systemer er både slutt- og mellomsystemer. Imidlertid kan et åpent system ikke nødvendigvis være tilgjengelig for andre åpne systemer. Denne isolasjonen kan oppnås enten gjennom fysisk separasjon eller ved bruk av tekniske muligheter basert på beskyttelse av informasjon i datamaskiner og kommunikasjonsmedier.

Andre definisjoner gjentar i en eller annen grad hovedinnholdet i definisjonene ovenfor. Ved å analysere dem kan vi identifisere noen grunnleggende funksjoner som er iboende i åpne systemer:

De tekniske midlene som informasjonssystemet er implementert på grunnlag av, er forent av et eller flere nettverk på forskjellige nivåer - fra lokalt til globalt;

Implementeringen av åpenhet utføres på grunnlag av profiler (Profiler) av funksjonelle standarder innen IT;

Informasjonssystemer som har egenskapen åpenhet kan kjøres på hvilken som helst programvare og maskinvare som er en del av et enkelt åpent systemmiljø;

Åpne systemer innebærer bruk av enhetlige grensesnitt i interaksjonsprosesser i datamaskin-til-datamaskin, datamaskin-til-nettverk og menneske-til-datamaskin-systemer.

På det nåværende stadiet av IT-utvikling er et åpent system definert som en programvare eller informasjonssystem bygget på grunnlag av et omfattende og avtalt sett av internasjonale IT-standarder og funksjonelle standardprofiler som implementerer åpne spesifikasjoner for grensesnitt, tjenester og deres støtteformater. for å sikre interoperabilitet og mobilitet programvareapplikasjoner, data og personell (IEEE POSIX 1003.0 Committee of the Institute of Electrical and Electronics Engineers - IEEE).

Eksempler på bruk av åpne systemteknologi inkluderer Intel Plug&Play og USB-teknologier, samt UNIX-operativsystemene og (delvis) hovedkonkurrenten, Windows NT. En grunn til å vurdere UNIX som basisoperativsystemet for bruk i åpne systemer er at det er skrevet nesten utelukkende på et høynivåspråk, er modulært og er relativt fleksibelt.

I dag utvikles mange nye produkter umiddelbart i samsvar med kravene til åpne systemer. Et eksempel på dette er det for tiden mye brukte Java-programmeringsspråket fra Sun Microsystems.

For at en programvare eller et informasjonssystem skal klassifiseres som et åpent system, må det ha en kombinasjon av følgende egenskaper:

Interaksjon (interoperabilitet) - evnen til å samhandle med andre applikasjonssystemer på lokale og (eller) eksterne plattformer (de tekniske midlene som IS implementeres på er forent av et nettverk eller nettverk på forskjellige nivåer - fra lokalt til globalt);

Standardiserbarhet - programvare og informasjonssystemer er designet og utviklet på grunnlag av avtalte internasjonale standarder og forslag, åpenhet implementeres på grunnlag av funksjonelle standarder (profiler) innen IT-feltet;

Utvidbarhet (skalerbarhet) - evnen til å flytte applikasjonsprogrammer og overføre data i systemer og miljøer som har ulike egenskaper ytelse og ulike funksjoner, muligheten til å legge til nye IS-funksjoner eller endre noen allerede eksisterende, mens de gjenværende funksjonelle delene av IS forblir uendret;

Mobilitet (portabilitet) - sikre muligheten for å overføre applikasjonsprogrammer og data ved oppgradering eller utskifting av IS-maskinvareplattformer og muligheten til spesialister som bruker IT til å jobbe med dem uten deres spesielle omskolering når de endrer IS;

Brukervennlighet - utviklet enhetlige grensesnitt i interaksjonsprosesser i systemet "bruker - datamaskinenhet - programvare", slik at en bruker som ikke har spesiell systemopplæring kan jobbe. Brukeren har å gjøre med et forretningsproblem i stedet for datamaskin- og programvareproblemer.

Disse egenskapene til moderne åpne systemer, tatt individuelt, var også karakteristiske for tidligere generasjoner av informasjonssystemer og datateknologi. Et nytt blikk på åpne systemer er at disse egenskapene vurderes og implementeres samlet – som sammenkoblet og implementert i et kompleks. Bare i en slik helhet gjør mulighetene til åpne systemer det mulig å løse komplekse problemer med design, utvikling, implementering, drift og utvikling av moderne informasjonssystemer.

Etter hvert som konseptet åpne systemer har utviklet seg, har det dukket opp noen vanlige årsaker som nødvendigvis motiverer overgangen til interoperable informasjonssystemer og utviklingen av tilsvarende standarder og tekniske midler.

Funksjon av systemer i forhold til informasjon og implementering heterogenitet. Informasjonsheterogeniteten til ressursene ligger i mangfoldet av deres anvendte kontekster (begreper, vokabularer, semantiske regler, viste virkelige objekter, typer data, metoder for å samle inn og behandle dem, brukergrensesnitt, etc.). Implementeringsheterogenitet manifesteres i bruk av en rekke dataplattformer, databaseadministrasjonsverktøy, data- og kunnskapsmodeller, språk og programmerings- og testverktøy, operativsystemer, etc.

Systemintegrasjon. Systemer utvikler seg fra enkle, frittstående delsystemer til mer komplekse, integrerte systemer basert på kravet om at komponenter skal samhandle.

Systemombygging. Utviklingen av en bedrifts forretningsprosesser er en kontinuerlig prosess som er en integrert del av organisasjonens aktiviteter. Opprettelsen av et IS, dets utvikling og rekonstruksjon (reengineering) i forbindelse med redesign av prosesser er en kontinuerlig prosess for å avklare krav, transformere arkitekturen og infrastrukturen til systemet. I denne forbindelse må systemet i utgangspunktet utformes slik at dets nøkkelkomponenter kan rekonstrueres samtidig som systemets integritet og ytelse opprettholdes.

Transformasjon av eldre systemer. Nesten ethvert system, når det først er opprettet og implementert, motstår endringer og har en tendens til å raskt bli en byrde for organisasjonen. Legacy Systems, bygget på «utgående» teknologier, arkitekturer, plattformer, samt programvare- og informasjonsstøtte, under utformingen av hvilke nødvendige tiltak ikke ble iverksatt for gradvis utvikling til nye systemer, krever omstrukturering (Legacy Transformation) iht. nye krav til forretningsprosesser og teknologier. Under transformasjonsprosessen er det nødvendig at nye systemmoduler og de resterende komponentene i eldre systemer beholder evnen til å samhandle.

Forlenge livssyklusen til systemene. Under forhold med ekstremt rask teknologisk utvikling kreves det spesielle tiltak for å sikre den nødvendige varigheten av produktets livssyklus, inkludert konstant forbedring av forbrukeregenskaper (vedlikehold) programvaresystem). Samtidig må nye versjoner av produktet støtte den deklarerte funksjonaliteten til tidligere versjoner.

Dermed er hovedprinsippet for dannelsen av åpne systemer å skape et miljø som inkluderer programvare og maskinvare, systemer, tjenester og kommunikasjonsprotokoller, grensesnitt og dataformater. Et slikt miljø er basert på utviklende, tilgjengelige og allment aksepterte internasjonale standarder og gir en betydelig grad av interoperabilitet, portabilitet og skalerbarhet av applikasjoner og data.

Internasjonale strukturer innenring

Informasjonsteknologi er et ekstremt komplekst, mangefasettert og mangefasettert aktivitetsfelt som tar sikte på å skape IKT på alle nivåer (fra føderale til bedrifter), nasjonal informasjonsinfrastruktur, informasjonssamfunn basert på utvikling, integrasjon og utvikling av informasjons-, data- og telekommunikasjonsressurser. For å løse disse problemene er nøkkelen spørsmålet om IT-standardisering basert på innføring av metoder og midler for arkitektonisk og funksjonell standardisering, som gjør det mulig, ved bruk av felles standarder og profiler, å identifisere grupper av grunnleggende og operasjonelle standarder, krav, sett av funksjoner og parametere som er nødvendige for implementering av spesifikke IT/IS i fagstoffet.

Organisasjonsstrukturen som støtter IT-standardiseringsprosessen inkluderer tre hovedgrupper av organisasjoner: internasjonale standardiseringsorganisasjoner som er en del av FN, industrielle profesjonelle eller administrative organisasjoner, og industrielle konsortier.

Internasjonale standardiseringsorganisasjoner som er en del av FN er:

ISO (International Organization for Standardization). ISO Standard Series;

IEC (International Electrotechnical Commission). ISO Standard Series;

ITU-T (International Telecommunication UnionTelecommunications - International Telecommunications Union). Frem til 1993 hadde denne organisasjonen et annet navn - ISSGT (International Telegraph and Telephone Consultative Committee - International Advisory Committee on Telephony and Telegraphy, forkortet til ICCTT). Serie med standarder X.200, X.400, X.500, X.600.

Industrielle profesjonelle eller administrative organisasjoner inkluderer:

IEEE (Institute of Electrical and Electronic Engineers - Institute of Electrical and Electronics Engineers, en internasjonal organisasjon - utvikler av en rekke viktige internasjonale standarder innen IT). LAN-standarder IEEE802, POSIX, etc.;

IAB (Internet Activities Board - Internet Activities Management Board). TCP/IP-protokollstandarder;

Regional WOS (Workshops on Open Systems – arbeidsgrupper om åpne systemer). OSE-profiler.

Industrikonsortiene er:

ECMA (European Computer Manufacturers Association), OSI, Office Document Architecture (ODE);

OMG (Object Management Group - objektstyringsgruppe);

RM: Common Object Request Broker Architecture (CORBA);

X/Open (organisert av en gruppe maskinvareleverandører), X/Open Portability Guide (XPG4) Common Application Environment;

NMF (Network Management Forum - nettverksadministrasjonsforum);

OSF (Open Software Foundation). Den har følgende tilbud: OSF/1 (samsvarer med POSIX- og XPG4-standarden), MOTIF - grafisk brukergrensesnitt, DCE (Distributed Computer Environment) - plattformintegrasjonsteknologi: DEC, HP, SUN, MIT, Siemens, Microsoft, Transarc, etc. , DME (Distributed Management Environment) - distribuerte miljøstyringsteknologier.

Internasjonale organisasjoner og konsortier - standardutviklere

IT funksjonelt standardiseringsrammeverk

ISO- og IEC-standarder har kombinert sine aktiviteter innen IT-standardisering, og skapt et enkelt organ JTC1 - Joint Technical Committee 1, designet for å danne et omfattende system av grunnleggende standarder innen IT og deres utvidelse for spesifikke aktivitetsområder.

IT-standardarbeidet i JTC1 er tematisk delt inn i Subcommittes (SCs) knyttet til utvikling av IT-standarder knyttet til OSEs åpne systemmiljø.

Følgende er navnene på noen av disse komiteene og underkomiteene:

C2 - tegnsett og informasjonskoding;

SC6 - telekommunikasjon og informasjonsutveksling mellom systemer;

SC7 - programvareutvikling og systemdokumentasjon;

SC18 - tekst- og kontorsystemer;

SC21 - Open Distributed Processing (ODP), Data Management (DM) og OSI Open Systems Interconnection;

SC22 - programmeringsspråk, deres miljøer og systemprogramvaregrensesnitt;

SC24 - datagrafikk;

SC27 - generell sikkerhetspraksis for IT-applikasjoner;

SGFS er spesialinteressegruppen for funksjonelle standarder.

For tiden er det flere autoritative miljøer i verden involvert i utviklingen av åpne systemstandarder. Den viktigste aktiviteten på dette området er imidlertid IEEEs arbeid i POSIX-arbeidsgruppene og -komiteene (Portable Operating System Interface). Den første POSIX-arbeidsgruppen ble dannet i IEEE i 1985, av den UNIX-orienterte standardkomiteen (nå UniForum). Derfor det første fokuset til POSIX-arbeidet med å standardisere UNIX OS-grensesnitt. Men etter hvert utvidet arbeidsgruppene til POSIX-arbeidsgruppene seg så mye at det ble mulig å snakke ikke bare om standard UNIX OS, men om POSIX-kompatible driftsmiljøer, altså ethvert driftsmiljø hvis grensesnitt samsvarer med POSIX-spesifikasjonene.

Internasjonale standarder må implementeres for hver nettverkssystemkomponent, inkludert alle operativsystemer og applikasjonspakker. Så lenge komponenter oppfyller slike standarder, oppfyller de målene for åpne systemer.