De försöker stödja öppna system. Framtiden för datorer och feedback. Komplexitetskrisen och programhantering

01.10.2021 Symtom

En betydande penetration i organisationens interna struktur säkerställs genom att använda ett systematiskt tillvägagångssätt.

Det finns öppna och slutna system. Konceptet med ett slutet system kommer från de fysiska vetenskaperna. Här förstås att systemet är självbegränsande. Henne huvudkaraktärär att den i huvudsak ignorerar effekten av yttre påverkan. Ett perfekt slutet system skulle vara ett som inte tar emot energi från externa källor och inte ger energi till sin yttre miljö. Ett slutet organisationssystem har liten tillämplighet.

Ett öppet system känner igen dynamisk interaktion med omvärlden. Organisationer hämtar sina råvaror och mänskliga resurser från omvärlden. De är beroende av kunder och kunder från omvärlden för att konsumera deras produkter. Banker som aktivt interagerar med omvärlden använder inlåning, förvandlar dem till lån och investeringar, använder vinsterna för att försörja sig själva, för utveckling, för att betala utdelningar och betala skatt.

I ett diagram som föreställer en industriell organisation som ett öppet system (Figur 1) kan man se flödet av material, arbete och kapital. En teknisk process skapas för att bearbeta råvaror till en slutprodukt, som i sin tur säljs till kunden. Finansiella institutioner, arbetskraft, leverantörer och kunder och myndigheter är alla en del av miljön.

Graden av gränsdragning mellan öppna och slutna system varierar inom systemen. Ett öppet system kan bli mer slutet om kontakten med omgivningen minskar med tiden. I princip är också den motsatta situationen möjlig.

Figur 1 – Industriorganisation som ett öppet system

Öppnare system tenderar att öka komplexiteten och differentieringen. Med andra ord kommer ett öppet system, när det växer, att sträva efter större specialisering av dess element och mer komplex struktur, ofta utvidga dess gränser eller skapa ett nytt supersystem med bredare gränser. När ett företag växer finns det en betydande differentiering och komplexitet. Nya specialiserade avdelningar skapas, råvaror köps in, produktutbudet utökas och nya försäljningskontor organiseras.

Alla system har en input, en transformationsprocess och en output. De tar emot råvaror, energi, information och andra resurser och omvandlar dem till varor och tjänster, vinst, avfall, etc. Öppna system har dock vissa specifika egenskaper som studenter i organisationer behöver känna till.

En av dessa egenskaper är erkännandet av det ömsesidiga beroendet mellan systemet och omvärlden. Det finns en gräns som skiljer systemet från dess omgivning. Förändringar i miljön påverkar en eller flera attribut i systemet, och vice versa, förändringar i systemet påverkar miljön. Organisationens yttre miljö visas schematiskt i figur 2.

Figur 2 – Organisationens yttre miljö

Organisationen ska spegla den yttre miljön. Dess konstruktion bygger på förutsättningar av ekonomisk, vetenskaplig, teknisk, politisk, social eller etisk karaktär. En organisation måste utformas för att fungera väl, för att få input från alla sina medlemmar och för att effektivt hjälpa anställda att nå sina mål nu och i framtiden. I denna mening kan en effektiv organisation inte vara statisk. Hon måste snabbt lära sig om alla förändringar i miljön, föreställa sig deras betydelse, välja det bästa svaret för att uppnå sina mål och reagera effektivt på miljöpåverkan.

Utan en gräns finns det inget system, och gränsen eller gränserna definierar var system eller delsystem börjar och slutar. Gränser kan vara fysiska eller ha psykologiskt innehåll genom symboler som namn, klädkoder och ritualer. Begreppet gränser krävs för en djupare förståelse av system.

Av grundläggande betydelse för organisationers funktion är Respons. Fler öppna system får hela tiden information från sin omgivning. Detta hjälper dig att anpassa dig och gör att du kan vidta korrigerande åtgärder för att korrigera avvikelser från den accepterade kursen. Här förstås feedback som en process som gör att en del av den utgående produkten kan tas emot tillbaka in i systemet i form av information eller pengar för att modifiera produktionen av samma outputprodukt eller etablera output Nya produkter.

Det är också nödvändigt att ta hänsyn till att organisationer är bemannade av människor. Uppenbarligen är det nödvändigt att ta hänsyn till människors olika brister och vanor när man grupperar aktiviteter och fördelar auktoritet inom alla organisationssystem. Det betyder inte att en organisation ska skapas i relation till människor, och inte utifrån mål och aktiviteter som är kopplade till deras prestation. En mycket viktig, ofta begränsande faktor för en chef är dock vilka personer som kommer att arbeta i organisationen.

Beteendet hos medlemmar i en organisation kan betraktas som dess interna miljö. En organisation står ständigt inför problem som kan förändra sin position och för att alla dess delar ska agera och vara intelligent samordnade krävs en kontinuerlig tillförsel av resurser. Produktionsapparaten slits ut, tekniken blir föråldrad, material behöver fyllas på, arbetare slutar. För att säkerställa organisationens livskraft måste dessa resurser ersättas med element av lika produktivitet utan att avbryta produktionsprocessen.

Andra interna problem uppstår av bristande kommunikation och samordning mellan olika delar av organisationen. En av anledningarna till att arbetare slutar och aktieägare är ovilliga att investera sina besparingar är att dessa grupper är missnöjda med arbetsvillkoren och belöningen för deltagande i organisationen, och detta missnöje kan bli så starkt att själva existensen av organisationen hotas. Organisationens interna miljö visas schematiskt i figur 3.

Organisationen kännetecknas av en cyklisk karaktär av fungerande. Systemets produktion ger medel för nya investeringar, vilket gör att cykeln kan upprepas. Intäkterna som kunder till industriorganisationer får måste vara tillräckligt tillräckliga för att betala för lån, arbetares arbete och återbetalning av lån, om konjunkturen är stabil och säkerställer organisationens livskraft.

Figur 3 – Organisationens inre miljö

Det bör också betonas att organisatoriska system är benägna att minska eller sönderfalla. Eftersom ett slutet system inte tar emot energi och nya insatser från sin yttre miljö kan det krympa med tiden. Däremot kännetecknas ett öppet system av negativ entropi, d.v.s. den kan rekonstruera sig själv, behålla sin struktur, undvika likvidation och till och med växa, eftersom den har förmågan att ta emot energi utifrån i större utsträckning än den ger ut.

Inflödet av energi och för att förhindra entropi upprätthåller en viss konstanthet i utbytet av energi, vilket resulterar i en relativt stabil position. Även om det är ett ständigt inflöde av nya investeringar i systemet och ett konstant utflöde säkerställs en viss balans i systemet. När ett öppet system aktivt bearbetar ingångar till utgående produkter visar det sig ändå kunna bibehålla sig själv under en viss tid.

Forskning visar att stora och komplexa organisationssystem tenderar att fortsätta växa och expandera. De får en viss säkerhetsmarginal som går utöver att bara ge överlevnad. Många delsystem inom ett system har förmågan att få ut mer energi än vad som krävs för att producera deras produkter. Man tror att en stabil position gäller för enkla system, men på en mer komplex nivå blir det en av faktorerna för att upprätthålla systemet genom tillväxt och expansion.

I takt med att en organisation växer, tvingas seniora ledare att i allt högre grad delegera sitt beslutsfattande ansvar till högre nivåer. Men eftersom chefer på toppnivå är ansvariga för alla beslut, förändras deras roll i organisationen: från att fatta beslut går cheferna på toppnivå vidare till att hantera beslutsprocesserna. Som ett resultat leder ökningen av storleken på organisationer till behovet av en arbetsfördelning i ledningen. En grupp - chefer på toppnivå - har primär auktoritet och ansvarar för att bestämma karaktären på organisationens ledningssystem, d.v.s. den process genom vilken organisatoriska problem ska lösas. En annan grupp chefer rapporterar till högsta ledningen. Dess personer är komponenter i ledningssystemet och deras huvudansvar är att fatta beslut.

Öppna system följer två, ofta motstridiga, handlingssätt. Åtgärder för att hålla systemet balanserat säkerställer konsistens och interaktion med den yttre miljön, vilket i sin tur förhindrar mycket snabba förändringar som kan göra systemet obalanserat. Tvärtom, åtgärder för att anpassa systemet till olika förändringar gör det möjligt för det att anpassa sig till dynamiken i intern och extern efterfrågan. Ett tillvägagångssätt fokuserar till exempel på stabilitet och bibehållande av den uppnådda positionen genom inköp, underhåll, inspektion och reparation av utrustning, rekrytering och utbildning av arbetare samt användning av regler och procedurer. En annan kurs fokuserar på förändring genom planering, marknadsundersökningar, utveckling av nya produkter och liknande. Båda är nödvändiga för organisationens överlevnad. Stabila och välutrustade organisationer, men inte anpassade till förändrade förhållanden, kommer inte att kunna överleva länge. Å andra sidan kommer organisationer som är anpassningsbara men inte stabila inte att vara effektiva och kommer sannolikt inte heller att överleva länge.

Trender i organisationsförändringar

Det är möjligt att spåra tre faser av grundläggande förändringar i organisationer som inträffade på 1900-talet och som har äkta historisk betydelse. Den första fasen är separeringen av ledningsfunktioner från ägarna och omvandlingen av ledningen till ett yrke. Den andra fasen är uppkomsten, från och med tjugotalet, av lednings- och administrativa organisationer med vertikal underordning och en hög nivå av centralisering av beslut. Den tredje fasen är övergången till organisationer med övervägande horisontella strukturer och kopplingar, baserad på den utbredda användningen av informationsteknologi, specialkunskap och systemiska beslutsmetoder.

Vid tröskeln till nästa århundrade sker en dramatisk övergång från organisatorisk rationalisering baserad i första hand på kumulativ erfarenhet till omfattande tillämpning av modern kunskap, informationsnätverk och datorutbildning. Denna process åtföljs av ett antal stora förändringar. Integration i ledningen aktiveras genom bildandet av associativa strukturer och allianser olika typer, inklusive organisationer av transnationell karaktär. Processerna med omfattande omstrukturering, övergång till organisationer med inre marknader, minskning av storleken på organisatoriska enheter, användning av arbetsgrupper, matrisstrukturer och självlärande organisationer tar fart.

Allt detta är utformat för att säkerställa eliminering av motsägelser och motsättningar i moderna organisationers funktion som hindrar en effektiv användning av produktion och intellektuell potential. I framtiden är det nödvändigt att övervinna den fortfarande existerande motsättningen mellan strikta företagskrav och arbetarnas ambitioner, moderna tekniska system och det sociala systemet, integrerade produktionsprocesser och arbetarnas förväntningar, arbetsrutin och tillfredsställelse från det. Väl fungerande gränssnittssystem ska inte strida mot humanitära behov, komplexa strukturer ska inte strida mot känslan av individualitet, kostnads- och inkomstfaktorer ska inte strida mot behovet av personlig utveckling. Det är viktigt att uppnå harmoni och överensstämmelse mellan stabilitet och innovation, enhetlighet och förändring, stabiliteten i organisationssystemet och kreativitet, organisationens tillväxt och dess minskning i storlek, viljan till vinst och samhällets krav.

Tillsammans med traditionella ekonomiska kriterier för att bedöma organisationers prestationer, baserade på att mäta effektiviteten av att använda resurser i förhållande till resultat, kommer ”immateriella” mått alltmer i förgrunden: intellektuellt kapital, kundnöjdhet, social vinst, organisationskultur. Sådana kriterier är framåtblickande. I många fall är de en bättre indikator på framtida resultat än finansiella nyckeltal.


Relaterad information.


OSI-modellen, som namnet antyder (Open System Interconnection), beskriver sammankopplingarna av öppna system. Vad är ett öppet system?

I vidare mening öppna system kan kallas vilket system som helst (dator, nätverk, OS, mjukvarupaket, annan hård- och mjukvaruprodukter) som är byggda i enlighet med öppna specifikationer.

Låt oss komma ihåg att termen "specifikation" (i datoranvändning) förstås som en formaliserad beskrivning av hårdvaru- eller mjukvarukomponenter, metoder för deras drift, interaktion med andra komponenter, driftsförhållanden, begränsningar och speciella egenskaper. Det är tydligt att inte varje specifikation är en standard. Öppna specifikationer, å andra sidan, hänvisar till publicerade, allmänt tillgängliga specifikationer som överensstämmer med standarder och som antas av konsensus efter fullständig diskussion av alla berörda parter.

Användningen av öppna specifikationer vid utveckling av system tillåter tredje part att utveckla olika hård- eller mjukvarutillägg och modifieringar för dessa system, samt skapa mjukvara och hårdvara från produkter från olika tillverkare.

För verkliga system är fullständig öppenhet ett ouppnåeligt ideal. Som regel, även i system som kallas öppna, uppfyller endast vissa delar som stöder externa gränssnitt denna definition. Till exempel består öppenheten i Unix-familjen av operativsystem bland annat i närvaron av ett standardiserat mjukvarugränssnitt mellan kärnan och applikationer, vilket gör det möjligt att enkelt överföra applikationer från en version av Unix till en annan version. Ett annat exempel på partiell öppenhet är användningen av Open Driver Interface (ODI) i det ganska slutna Novell NetWare-operativsystemet för inkludering av drivrutiner i systemet nätverkskort oberoende tillverkare. Ju mer öppna specifikationer som används för att utveckla ett system, desto mer öppet är det.

OSI-modellen berör endast en aspekt av öppenhet, nämligen öppenheten i sätten att interagera mellan enheter anslutna i ett datornätverk. Här avser ett öppet system en nätverksenhet som är redo att interagera med andra nätverksenheter med hjälp av standardregler som definierar formatet, innehållet och innebörden av de meddelanden den tar emot och skickar.

Om två nätverk byggs i enlighet med principerna om öppenhet, ger detta följande fördelar:

Möjligheten att bygga ett nätverk av hårdvara och mjukvara från olika tillverkare som följer samma standard;

Möjligheten att smärtfritt ersätta enskilda nätverkskomponenter med andra, mer avancerade, vilket gör att nätverket kan utvecklas till minimal kostnad;

Möjlighet att enkelt koppla ihop ett nätverk med ett annat;

Enkel utveckling och underhåll av nätverket.

Ett slående exempel på ett öppet system är det internationella nätverket Internet. Detta nätverk har utvecklats helt i enlighet med kraven för öppna system. Tusentals specialistanvändare av detta nätverk från olika universitet, vetenskapliga organisationer och företag som tillverkar hårdvara och mjukvara som är verksamma i olika länder deltog i utvecklingen av dess standarder. Själva namnet på de standarder som bestämmer hur Internet fungerar - Request For Comments (RFC), som kan översättas som "begäran om kommentarer" - visar den transparenta och öppna karaktären hos de antagna standarderna. Som ett resultat har Internet lyckats kombinera en mängd olika hårdvara och mjukvara från ett stort antal nätverk utspridda runt om i världen.

1.3.5. Modularitet och standardisering

Modularitet är en av de integrerade och naturliga egenskaperna hos datornätverk. Modularitet manifesteras inte bara i flernivåpresentationen av kommunikationsprotokoll i nätverkets slutnoder, även om detta verkligen är en viktig och grundläggande egenskap hos nätverksarkitekturen. Nätverket består av ett stort antal olika moduler – datorer, nätverkskort, bryggor, routrar, modem, operativsystem och applikationsmoduler. Mångfalden av krav som företag ställer på datornätverk har lett till samma mängd enheter och program som produceras för att bygga ett nätverk. Dessa produkter

skiljer sig inte bara i sina huvudfunktioner (det vill säga funktioner som till exempel utförs av repeaters, bryggor eller programvaruomdirigerare), utan också i många hjälpfunktioner som ger användare eller administratörer ytterligare bekvämligheter, såsom automatisk konfiguration av enhetsparametrar, automatisk detektering och eliminering av vissa fel, möjligheten att programmässigt ändra anslutningar i nätverket etc. Variationen ökar också eftersom många enheter och program skiljer sig åt i kombinationer av vissa grund- och tilläggsfunktioner – det finns till exempel enheter som kombinerar de grundläggande kapaciteterna av switchar och routrar, som också läggs till en uppsättning ytterligare funktioner som endast är specifika för denna produkt.

Som ett resultat finns det inget företag som kan tillhandahålla hela utbudet av alla typer och undertyper av hårdvara och mjukvara som krävs för att bygga ett nätverk. Men eftersom alla nätverkskomponenter måste fungera i harmoni, visade det sig vara absolut nödvändigt att anta många standarder som, om inte alla, så åtminstone i de flesta fall, skulle garantera kompatibiliteten för utrustning och program från olika tillverkare. Således är begreppen modularitet och standardisering i nätverk oupplösligt sammanlänkade, och ett modulärt tillvägagångssätt ger bara fördelar när det åtföljs av efterlevnad av standarder.

Som ett resultat är den öppna karaktären hos standarder och specifikationer viktig inte bara för kommunikationsprotokoll, utan också för alla de många funktionerna hos de olika enheterna och programmen som släpps för att bygga ett nätverk. Det bör noteras att de flesta av de standarder som antas idag är öppna till sin natur. Tiden för slutna system, vars exakta specifikationer endast var kända för tillverkaren, är borta. Alla insåg att förmågan att enkelt interagera med konkurrenters produkter inte minskar, utan tvärtom ökar värdet på produkten, eftersom den kan användas i ett större antal operativa nätverk byggda på produkter från olika tillverkare. Därför är även företag som tidigare producerat mycket slutna system – som IBM, Novell eller Microsoft – nu aktivt involverade i utvecklingen av öppna standarder och tillämpar dem i sina produkter.

Idag inom sektorn för nätverksutrustning och program med kompatibilitet med produkter från olika tillverkare har följande situation utvecklats. Nästan alla produkter, både mjukvara och hårdvara, är kompatibla när det gäller funktioner och egenskaper som har praktiserats för ganska länge sedan och standarder som redan har utvecklats och antagits för minst 3-4 år sedan. Samtidigt visar sig väldigt ofta fundamentalt nya enheter, protokoll och egenskaper vara inkompatibla även bland ledande tillverkare. Denna situation uppstår inte bara för de enheter eller funktioner för vilka standarder ännu inte har antagits (detta är naturligt), utan också för enheter för vilka standarder har funnits i flera år. Kompatibilitet uppnås först efter att alla tillverkare implementerar denna standard i sina produkter, och på samma sätt.

1.3.6. Källor till standarder

Arbetet med standardisering av datornätverk utförs av ett stort antal organisationer. Beroende på organisationens status särskiljs följande typer av standarder:

individuella företagsstandarder(till exempel Digital Equipments DECnet-protokollstack eller GUI OPEN LOOK för Sun Unix-system);

standarder för särskilda kommittéer och föreningar, skapade av flera företag, till exempel ATM-teknikstandarder utvecklade av den speciellt skapade ATM Forum-föreningen, som har cirka 100 kollektiva medlemmar, eller Fast Ethernet Alliances standarder för utveckling av 100 Mbit Ethernet-standarder;

nationella standarder, till exempel FDDI-standarden, som är en av många standarder som utvecklats av American National Standards Institute (ANSI), eller operativsystemets säkerhetsstandarder utvecklade av National Computer Security Center (NCSC) vid det amerikanska försvarsdepartementet;

internationella standarder, till exempel International Standards Organization (ISO) modell och kommunikationsprotokollstack, många

International Telecommunication Union (ITU) standarder, inklusive

på X.25-paketförmedlingsnätverk, ramrelänätverk, ISDN, modem och många

Vissa standarder, som ständigt utvecklas, kan flyttas från en kategori till en annan. I synnerhet tenderar varumärkesstandarder för populära produkter att bli de facto internationella standarder, vilket tvingar tillverkare i olika länder att följa varumärkesstandarderna för att säkerställa att deras produkter är kompatibla med dessa populära produkter. Till exempel, på grund av den fenomenala framgången för IBM-persondatorn, har den proprietära IBM PC-arkitekturstandarden blivit en de facto internationell standard.

Dessutom, på grund av deras utbredda användning, blir vissa proprietära standarder grunden för de jure nationella och internationella standarder. Till exempel antogs Ethernet-standarden, som ursprungligen utvecklades av Digital Equipment, Intel och Xerox, efter en tid och i något modifierad form som den nationella standarden IEEE 802.3, och sedan godkände ISO-organisationen den som den internationella standarden ISO 8802.3.

International Organization for Standardization (Internationell Organisation/ eller Standardisering, ISO, kallas ofta också Internationell Standarder Organisation) är en sammanslutning av ledande nationella standardiseringsorganisationer från olika länder. ISO:s främsta prestation var OSI-modellen för sammankoppling av öppna system, som för närvarande är den konceptuella grunden för standardisering inom området datornätverk. I enlighet med OSI-modellen har denna organisation utvecklat en standardstapel av OSI-kommunikationsprotokoll.

International Telecommunication Union (Internationell Telekommunikation Union, ITU) - en organisation som nu är ett specialiserat organ inom FN. Den viktigaste rollen i standardiseringen av datornätverk spelas av den rådgivande kommittén för internationell telegrafi och telefoni (CCITT), som är permanent verksam inom denna organisation. Som ett resultat av omorganisationen av ITU 1993 ändrade CCITT något inriktningen på sin verksamhet och bytte namn - den heter nu ITU Telecommunication Standardization Sector (ITU-T). Grunden för ITU-T:s verksamhet är utvecklingen av internationella standarder inom området för telefoni, telematiktjänster (e-post, fax, text-TV, telex, etc.), dataöverföring, ljud- och videosignaler. Under åren av sin verksamhet har ITU-T utfärdat ett stort antal rekommendationer och standarder. ITU-T baserar sitt arbete på att studera erfarenheter från tredjepartsorganisationer, såväl som på resultaten av sin egen forskning. Vart fjärde år publiceras ITU-T:s handlingar i form av en så kallad "Book", som egentligen är en hel uppsättning vanliga böcker grupperade i nummer, som i sin tur kombineras till volymer. Varje volym och nummer innehåller logiskt sammanlänkade rekommendationer. Till exempel innehåller Volym III av Blue Book rekommendationer för integrerade tjänster digitala nätverk (ISDN), och hela Volym VIII (med undantag av Issue VIII.1, som innehåller V-seriens rekommendationer för dataöverföring över telefonnätet) är ägnat åt X-seriens rekommendationer: X.25 för paketförmedlingsnätverk, X.400 för e-postsystem, X.500 för global helpdesk och många andra.

Institutet för Elteknik-och Elektronikingenjörer -Inleda av Elektrisk och Elektronik Ingenjörer, IEEE) - Amerikansk nationell organisation som sätter nätverksstandarder. 1981 formulerade arbetsgrupp 802 vid detta institut de grundläggande krav som lokala nätverk måste uppfylla. 802-gruppen har definierat många standarder, varav de mest kända är 802.1, 802.2, 802.3 och 802.5, som beskriver allmänna koncept som används inom området lokala nätverk, såväl som standarder för de två lägre skikten av Ethernet- och Token Ring-nätverk .

European Computer Manufacturers Association (Europeiska Dator Manu­ fabriker Förening, ESMA) - en ideell organisation som aktivt samarbetar med ITU-T och ISO, utvecklar standarder och tekniska recensioner relaterade till dator- och kommunikationsteknik. Känd för sin ECMA-101-standard, som används för att överföra formaterad text och grafik samtidigt som originalformatet bevaras.

Association of Computer and Office Equipment Manufacturers (Dator och Företag Utrustning Tillverkare Förening, CBEMA) - organisation av amerikanska hårdvarutillverkare; liknande den europeiska ECMA-föreningen; deltar i utvecklingen av standarder för informationsbehandling och tillhörande utrustning.

Electronics Industry Association (Elektronisk industrier Förening, EIA) - industri- och handelsgrupp av tillverkare av elektronisk utrustning och nätverksutrustning; är en nationell företagsförening i USA; är mycket aktiva i att utveckla standarder för kablar, kontakter och andra nätverkskomponenter. Dess mest kända standard är RS-232C.

USA:s försvarsdepartement (Avdelning av Försvar, DoD) har många divisioner involverade i att skapa standarder för datorsystem. En av de mest kända DoD-utvecklingarna är TCP/IP-transportprotokollstacken.

American National Standards Institute (amerikansk Nationell Standarder Inleda, ANSI) - denna organisation representerar USA i International Organization for Standardization (ISO). ANSI-kommittéer arbetar med att utveckla standarder inom olika datorområden. Således arbetar ANSI HZT9.5-kommittén tillsammans med IBM med standardisering av lokala nätverk av stora datorer (SNA-nätverksarkitektur). Den välkända FDDI-standarden är också resultatet av denna ANSI-kommitté. Inom området mikrodatorer utvecklar ANSI standarder för programmeringsspråk, SCSI-gränssnittet. ANSI har utvecklat riktlinjer för portabilitet för C, FORTRAN och COBOL.

Internetstandarder spelar en särskild roll i utvecklingen av internationella öppna standarder. På grund av Internets stora och ständigt växande popularitet blir dessa standarder de facto internationella standarder, av vilka många sedan får status som officiella internationella standarder genom deras godkännande av någon av ovanstående organisationer, inklusive ISO och ITU-T. Det finns flera organisatoriska enheter som ansvarar för utvecklingen av Internet och i synnerhet för standardiseringen av Internetfaciliteter.

Den främsta är Internet Society (ISOC) - ett professionellt samhälle som hanterar allmänna frågor om utvecklingen och tillväxten av Internet som en global kommunikationsinfrastruktur. ISOC driver Internet Architecture Board (IAB), en organisation som övervakar teknisk tillsyn och samordning av arbetet för Internet. IAB koordinerar riktningen för forskning och nyutveckling för TCP/IP-stacken och är den sista auktoriteten för att definiera nya Internetstandarder.

IAB har två huvudgrupper: Internet Engineering Task Force (IETF) och Internet Research Task Force (IRTF). IETF är en ingenjörsgrupp som arbetar för att lösa Internets omedelbara tekniska problem. Det är IETF som definierar specifikationerna som sedan blir Internetstandarder. I sin tur koordinerar IRTF långsiktiga forskningsprojekt om TCP/IP-protokoll.

I alla organisationer som är involverade i standardisering består processen för att utveckla och anta en standard av ett antal obligatoriska steg, som i själva verket utgör standardiseringsförfarandet. Låt oss titta på denna procedur med exemplet att utveckla Internetstandarder.

Först introducerar IETF den sk arbetsutkast (förslag) i ett formulär som är tillgängligt för kommentarer. Det publiceras på Internet, varefter ett brett spektrum av intresserade parter ingår i diskussionen om detta dokument, korrigeringar görs i det, och slutligen kommer det ögonblick då innehållet i dokumentet kan registreras. I detta skede tilldelas projektet ett RFC-nummer (ev «. Ett annat scenario är att arbetsutkastet efter diskussion avvisas och tas bort från Internet).

Efter att ha tilldelat ett nummer får projektet status föreslagen standard. Inom 6 månader prövas denna föreslagna standard av praxis, vilket leder till ändringar.

Om resultaten av praktisk forskning visar effektiviteten av den föreslagna standarden, tilldelas den statusen, med alla gjorda ändringar utkast till standard. Sedan, under minst fyra månader, genomgår den ytterligare "styrketester", som inkluderar skapandet av minst två mjukvaruimplementationer.

Om inga korrigeringar gjordes i dokumentet medan det var i rankningen av standardutkastet, kan det tilldelas statusen officiell standard Internet. Listan över godkända officiella Internetstandarder publiceras som ett RFC-dokument och finns tillgänglig på Internet. Det bör noteras att alla Internetstandarder kallas RFC:er med motsvarande serienummer, men inte alla RFC:er är Internetstandarder - ofta är dessa dokument kommentarer till en standard eller helt enkelt beskrivningar av något Internetproblem.

1.3.7. Standardstaplar för kommunikationsprotokoll

Det viktigaste standardiseringsområdet inom datornätverk är standardiseringen av kommunikationsprotokoll. För närvarande använder nätverk ett stort antal kommunikationsprotokollstackar. De mest populära stackarna är: TCP/IP, IPX/SPX, NetBIOS/SMB, DECnet, SNA och OSLBce dessa stackar, förutom SNA på de lägre nivåerna - fysisk och datalänk - använder samma välstandardiserade protokoll Ethernet, Tecken;

Ring, FDDI och några andra, som gör att du kan använda samma utrustning i alla nätverk. Men på de övre nivåerna fungerar alla stackar på sitt eget sätt! egna protokoll. Dessa protokoll är ofta inte vad som rekommenderas! OSI-modell av skiktning. Särskilt funktionerna i sessions- och presentationslagren kombineras vanligtvis med applikationslagret. Denna avvikelse beror på att OSI-modellen uppstod som ett resultat av en generalisering av befintliga och faktiskt använda stackar, och inte tvärtom.

Det finns en tydlig skillnad att göra mellan OSI-modellen och OSI-stacken. Medan OSI-modellen är | är ett konceptuellt diagram för interaktion mellan öppna system, OSI-stacken representeras av | är en uppsättning mycket specifika protokollspecifikationer. Till skillnad från andra protokollstackar är OSI-stacken helt kompatibel med OSI-modellen och inkluderar protokollspecifikationer för alla sju interoperabilitetsskikt som definieras av den modellen. På de lägre nivåerna stöder OSI-stacken Ethernet, Token Ring FDDI, WAN-protokoll, X.25 och ISDN – det vill säga den använder lägre nivåprotokoll som utvecklats utanför stacken, som alla andra stackar. Protokollen för nätverks-, transport- och sessionslagren i OSI-stacken är specificerade och implementerade av olika tillverkare, men är ännu inte utbredda. De mest populära protokollen i OSI-stacken är applikationsprotokoll. Dessa inkluderar: FTAM-filöverföringsprotokoll, VTPJ-terminalemuleringsprotokoll, X.500 helpdesk-protokoll, X.400-e-postprotokoll och ett antal andra. :

OSI-stackens protokoll kännetecknas av stor komplexitet och tvetydighet i specifikationerna. Dessa egenskaper var resultatet av stackutvecklarnas allmänna policy, som försökte ta hänsyn till alla användningsfall och all befintlig och framväxande teknologi i sina protokoll. Till detta måste vi också lägga konsekvenserna av ett stort antal politiska kompromisser som är oundvikliga när man antar internationella standarder i en så angelägen fråga som byggandet av öppna datornätverk.

På grund av deras komplexitet kräver OSI-protokoll mycket CPU-processorkraft, vilket gör dem mer lämpade för kraftfulla maskiner snarare än persondatornätverk.

OSI-stacken är en internationell, leverantörsoberoende standard. Det stöds av den amerikanska regeringen genom dess GOSIP-program, som kräver att alla datornätverk installerade i amerikanska myndigheter efter 1990 antingen direkt stöder OSI-stacken eller tillhandahåller ett sätt att migrera till den stacken i framtiden. OSI-stacken är dock mer populär i Europa än i USA eftersom det finns färre äldre nätverk kvar i Europa som kör sina egna protokoll. De flesta organisationer planerar fortfarande sin migrering till OSI-stacken, och väldigt få har startat pilotprojekt. Bland dem som arbetar i denna riktning finns US Navy Department och NFSNET-nätverket. En av de största tillverkarna som stöder OSI är AT&T, dess Stargroup-nätverk är helt baserat på denna stack.

TCP/IP-stacken utvecklades på initiativ av det amerikanska försvarsdepartementet för mer än 20 år sedan för att koppla ihop det experimentella ARPAnet-nätverket med andra nätverk som en uppsättning gemensamma protokoll för heterogena datormiljöer. Berkeley University gav ett stort bidrag till utvecklingen av TCP/IP-stacken, som fått sitt namn från de populära IP- och TCP-protokollen, genom att implementera stackprotokollen i sin version av UNIX OS. Populariteten för detta operativsystem ledde till att TCP, IP och andra protokollstackar användes i stor utsträckning. Idag används denna stack för att ansluta datorer på Internet, såväl som i ett stort antal företagsnätverk.

TCP/IP-stacken på den lägre nivån stöder alla populära standarder för fysiska och datalänkslager: för lokala nätverk - dessa är Ethernet, Token Ring, FDDI, för globala nätverk - protokoll för att arbeta med analog uppringd och hyrda linjer SLIP , PPP, protokoll för territoriella nätverk X.25 och ISDN.

Huvudprotokollen för stacken, som ger den dess namn, är IP och TCP. Dessa protokoll, i OSI-modellterminologi, tillhör nätverks- respektive transportskikten. IP säkerställer att paketet färdas över det sammansatta nätverket, och TCP säkerställer leveranssäkerheten.

Under många års användning i nätverk i olika länder och organisationer har TCP/IP-stacken inkorporerat ett stort antal protokoll på applikationsnivå. Dessa inkluderar sådana populära protokoll som FTP-filöverföringsprotokollet, telnet-terminalemuleringsprotokollet, SMTP-e-postprotokollet som används i Internet-e-post, hypertexttjänster, WWW-tjänster och många andra.

Idag är TCP/IP-stacken en av de vanligaste transportprotokollstackarna i datornätverk. Faktum är att enbart Internet kopplar samman cirka 10 miljoner datorer runt om i världen som interagerar med varandra med hjälp av TCP/IP-protokollstacken.

Den snabba tillväxten av internets popularitet har också lett till förändringar i maktbalansen i världen av kommunikationsprotokoll – TCP/IP-protokollen som internet är uppbyggt på började snabbt tränga undan de senaste årens obestridda ledare – Novells IPX/SPX stack. Idag i världen har det totala antalet datorer där TCP/IP-stacken är installerad blivit lika med det totala antalet datorer som IPX/SPX-stacken körs på, och detta indikerar en kraftig förändring i attityden hos lokala nätverksadministratörer till protokollen som används på stationära datorer, eftersom De utgör den överväldigande majoriteten av världens datorpark, och det var på dem som Novells protokoll, nödvändiga för åtkomst till NetWare-filservrar, brukade fungera nästan överallt. Processen att etablera TCP/IP-stacken som nummer ett i alla typer av nätverk fortsätter, och nu inkluderar alla industriella operativsystem nödvändigtvis en mjukvaruimplementering av denna stack i leveranspaketet.

Även om TCP/IP-protokollen är oupplösligt förbundna med Internet och var och en av internetdatorernas mångmiljondollararmada körs på basis av denna stack, finns det ett stort antal lokala, företags- och territoriella nätverk som inte är direkt delar av Internet, som också använder

TCP/IP-protokoll. För att skilja dem från Internet kallas dessa nätverk för TCP/IP-nätverk, eller helt enkelt IP-nätverk.

Eftersom TCP/IP-stacken ursprungligen skapades för det globala Internet, har den många funktioner som ger den en fördel gentemot andra protokoll när det gäller att bygga nätverk som inkluderar bredare kommunikation. I synnerhet en mycket användbar funktion som gör det möjligt att använda detta protokoll i stora nätverk är dess förmåga att fragmentera paket. Ett stort sammansatt nätverk består faktiskt ofta av nätverk byggda på helt andra principer. Vart och ett av dessa nätverk kan ställa in sitt eget värde för den maximala längden av en enhet av överförd data (i pa). I detta fall, när man flyttar från ett nätverk med en större maximal längd till ett nätverk med en kortare maximal längd, kan det vara nödvändigt att dela upp den överförda ramen i flera delar. IP-protokollet för TCP/IP-stacken löser detta problem effektivt.

En annan egenskap hos TCP/IP-tekniken är dess flexibla adresseringssystem, som gör det lättare att inkludera nätverk av andra teknologier på Internet jämfört med andra protokoll med liknande syften. Den här egenskapen främjar också användningen av TCP/IP-stacken för att bygga stora heterogena nätverk.

TCP/IP-stacken använder sändningsfunktioner mycket sparsamt. Denna egenskap är absolut nödvändig när man arbetar med långsamma kommunikationskanaler som är karakteristiska för territoriella nätverk.

Men som alltid måste du betala för de fördelar du får, och priset här är höga resurskrav och komplexiteten i att administrera IP-nätverk. Den kraftfulla funktionaliteten hos TCP/IP-protokollstacken kräver höga beräkningskostnader att implementera. Flexibelt adresseringssystem! och vägran av sändningar leder till närvaron i IP-nätverket av olika centraliserade tjänster såsom DNS, DHCP, etc. Var och en av dessa tjänster syftar till att underlätta nätverksadministration, inklusive att underlätta konfiguration av utrustning, men samtidigt krävs det nära uppmärksamhet från administratörer.

Det finns andra argument för och emot Internetprotokollstacken, men faktum kvarstår att det idag är den mest populära protokollstacken, flitigt använd i både globala och lokala nätverk.

IPX/SPX stack

Denna stack är den ursprungliga Novell-protokollstacken, utvecklad för nätverksoperativsystemet NetWare i början av 80-talet. Nätverks- och sessionslagerprotokollen Internetwork Packet Exchange (IPX) och Sequenced Packet Exchange (SPX), som ger stacken dess namn, är en direkt anpassning av Xerox XNS-protokollen, som är mycket mindre utbredda än IPX/SPX-stacken. Populariteten för IPX/SPX-stacken är direkt relaterad till Novell NetWare-operativsystemet, som fortfarande behåller världsledande ställning när det gäller antalet installerade system, även om dess popularitet nyligen har minskat något och dess tillväxttakt ligger efter Microsoft Windows NT.

Många funktioner i IPX/SPX-stacken beror på orienteringen av tidiga versioner av NetWare OS (upp till version 4.0) för arbete i små lokala nätverk som består av persondatorer med blygsamma resurser. Det är tydligt att för sådana datorer behövde Novell protokoll som skulle kräva en minsta mängd RAM (begränsat i IBM-kompatibla datorer som kör MS-DOS med en kapacitet på 640 KB) och som skulle köras snabbt på processorer med låg processorkraft. Som ett resultat fungerade IPX/SPX-stackprotokollen tills nyligen bra i lokala nätverk och inte så bra i stora företagsnätverk, eftersom de överbelastade långsamma globala länkar med broadcast-paket som används intensivt av flera protokoll i denna stack (till exempel för att upprätta kommunikation mellan klienter och servrar). Denna omständighet, liksom det faktum att IPX/SPX-stacken är patentskyddad för Novell och kräver en licens för att implementera den (det vill säga öppna specifikationer stöddes inte), begränsade under lång tid dess distribution endast till NetWare-nätverk. Men sedan lanseringen av NetWare 4.0 har Novell gjort och fortsätter att göra stora förändringar i sina protokoll som syftar till att anpassa dem för att fungera i företagsnätverk. Nu implementeras IPX/SPX-stacken inte bara i NetWare utan även i flera andra populära nätverksoperativsystem, till exempel SCO UNIX, Sun Solaris, Microsoft Windows NT.

NetBIOS/SMB-stack

Denna stack används ofta i produkter från IBM och Microsoft. På de fysiska nivåerna och datalänknivåerna i denna stack används alla de vanligaste protokollen: Ethernet, Token Ring, FDDI och andra. NetBEUI- och SMB-protokollen fungerar på de övre nivåerna.

NetBIOS-protokollet (Network Basic Input/Output System) dök upp 1984 som en nätverksutvidgning av standardfunktionerna i IBM PC Basic Input/Output System (BIOS) för IBM PC Network-programmet. Detta protokoll ersattes senare av det så kallade NetBEUI - NetBIOS Extended User Interface-protokollet. För att säkerställa applikationskompatibilitet behölls NetBIOS-gränssnittet som ett gränssnitt till NetBEUI-protokollet. NetBEUI-protokollet utformades för att vara ett effektivt protokoll med låga resurser för nätverk med högst 200 arbetsstationer. Detta protokoll innehåller många användbara nätverksfunktioner som kan hänföras till nätverks-, transport- och sessionslagren i OSI-modellen, men det dirigerar inte paket. Detta begränsar användningen av NetBEUI-protokollet till lokala nätverk som inte är uppdelade i subnät, och gör det omöjligt att använda det i sammansatta nätverk. Vissa av begränsningarna för NetBEUI tas bort av NBF (NetBEUI Frame)-implementeringen av detta protokoll, som ingår i operativ system Microsoft Windows NT.

SMB-protokollet (Server Message Block) utför funktionerna för sessionen, presentationen och applikationslagren. SMB används för att implementera filtjänster, såväl som utskrifts- och meddelandetjänster mellan applikationer.

SNA-protokollstackarna från IBM, DECnet från Digital Equipment Corporation och AppleTalk/AFP från Apple används främst i dessa företags operativsystem och nätverksutrustning.

Ris. 1.30. Överensstämmelse med populära protokollstackar med OSI-modellen

I fig. Figur 1.30 visar överensstämmelsen mellan några av de mest populära protokollen till nivåerna för OSI-modellen. Ofta är denna korrespondens mycket villkorad, eftersom OSI-modellen bara är en guide till handling, och ganska generella och specifika protokoll utvecklades för att lösa specifika problem, och många av dem dök upp före utvecklingen av OSI-modellen. I de flesta fall har stackutvecklare prioriterat nätverkshastighet framför modularitet - ingen annan stack än OSI-stacken är uppdelad i sju lager. Oftast är 3-4 nivåer tydligt särskiljda i stacken: nätverksadapternivån, som implementerar protokollen för de fysiska och datalänklagren, nätverksnivån, transportlagret och servicenivån, som inkluderar sessionens funktioner , representativa och applikationsskikt.

I datornätverk är den ideologiska grunden för standardisering en strategi på flera nivåer för utvecklingen av verktyg för nätverksinteraktion.

Formaliserade regler som bestämmer sekvensen och formatet för meddelanden som utbyts mellan nätverkskomponenter som är placerade på samma nivå, men i olika noder, kallas ett protokoll.

Formaliserade regler som bestämmer interaktionen mellan nätverkskomponenter i angränsande nivåer i en nod kallas ett gränssnitt. Ett gränssnitt definierar en uppsättning tjänster som ett givet lager tillhandahåller till dess närliggande lager.

En hierarkiskt organiserad uppsättning protokoll som är tillräcklig för att organisera interaktionen mellan noder i ett nätverk kallas en kommunikationsprotokollstack.

Ett öppet system kan definieras som vilket system som helst som är byggt enligt allmänt tillgängliga specifikationer som överensstämmer med standarder och som accepteras genom offentlig diskussion av alla berörda parter.

OSI-modellen standardiserar sammankopplingen av öppna system. Den definierar 7 nivåer av interaktion: applikation, presentation, session, transport, nätverk, kanal och fysisk.

Det viktigaste standardiseringsområdet inom datornätverk är standardiseringen av kommunikationsprotokoll. De mest populära stackarna är: TCP/IP, IPX/SPX, NetBIOS/SMB, DECnet, SNA och OSI.

På grund av krisen som bröt ut i IT-branschen år 2000 fick utgångspunkten för den nya datoråldern flyttas. Enligt branschanalytiker förändras situationen till det bättre i år. Inom datateknik kommer produktionsnedgången att upphöra och tillväxt förväntas under 2004 och efterföljande år, och med en märkbar acceleration. Det är då som, med ett skifte på fem år, den nya datorn 2000-talet med största sannolikhet kommer att börja.

Och innan, i den nuvarande övergångsperioden, särskilt på tröskeln till det nya året, finns det en helt naturlig önskan att se bortom horisonten och se vad som väntar oss under nästa århundrade. Att vända sig till samma analytiker tillåter oss inte att se de djupa förändringarna som ligger bakom teknologier och ge dem liv. Analytiker verkar använda den välkända regeln för meteorologer: sannolikheten för att dagens väder håller i sig till imorgon är 70 %, så om du vill göra en prognos med en sannolikhet högre än 50 %, gör direkt extrapolering. Efter denna regel, nästan utan undantag, talar analytiker om kvantitativa förändringar i välkända fenomen. Häromdagen ställde jag en fråga till vice vd för forskning på ett av de största analytiska företagen, med en önskan att ta reda på varför rapporterna och prognoserna är så formella, utan åtminstone inslag av vetenskap eller sann analytisk förmåga. Här är hans bokstavliga svar (jag utelämnar företagsnamnet av förklarliga skäl): ”Företag N är inte en akademisk tankesmedja. De flesta av N:s anställda har ingen datavetenskaplig examen. N är ett rådgivningsföretag för konsumenter, för de som väljer bästa tekniken för villkoren för ditt företag. Vi är inte vetenskapliga konsulter."

Tidigare år var det möjligt att göra förutsägelser samtidigt som de förblev uteslutande tekniska. Det nuvarande tillståndet för datoranvändning avslöjar kvalitativt nya funktioner; Bland dem finns försök att bygga system med självreglering och skapa företag som verkar i realtid, försök som inte passar in i de vanliga stereotyperna. De kännetecknas av deras koppling inte så mycket till teknik, utan med metoder för att skapa nya typer av system med hjälp av befintliga och lovande tekniker. Dessa hittills blygsamma försök indikerar att en tillräckligt stor mängd teknik redan har samlats för att bygga system inte på intuitiva idéer, utan på grundval av cybernetiska principer - först och främst genom att använda feedback.

Återkopplingsmekanismen tillåter system av alla typer - levande, mekaniska, elektriska, sociala - att förbli i ett tillstånd av jämvikt (eller, som det oftare kallas, homeostas). Feedback stabiliserar inte bara processer, utan fungerar också som en mekanism som underlättar deras utveckling; Till och med Charles Darwin insåg vikten av feedback i evolutionen. Principen för återkopplingsstyrning innebär att ständigt jämföra systemets aktuella tillstånd med det önskade och generera styrsignaler baserat på skillnaden som erhålls som ett resultat av jämförelsen. Feedback låter dig bygga komplexa, självhanterande tekniska system; För hur det har använts för kontrolländamål under århundradena, se sidofältet "Från feedbackens historia."

Hur konstigt det än kan tyckas, används principerna för feedback fortfarande extremt lite i datorsystem. Bara i senaste åren man började prata om självstyrande datorsystem (autonomic computing), om datorer med förmåga till självläkning (självläkande), om asynkrona processorer, där återkoppling täcker individuella logiska komponenter. Drivkraften till bildandet av dessa nya åsikter var det framväxande problemet med komplexitet.

Reinkarnation av feedback

En föga känd men mycket inflytelserik amerikansk byrå, Office of Force Transformation, ansvarig för att bedöma tekniska trender och rapportera direkt till USA:s försvarsminister, menar att feedback är precis vad som kommer att förändra datorsystemen. En relaterad rapport med titeln Transformation Trends, som citerar den brittiske akademikern Steve Grand som en förespråkare för feedback, säger: "Feedback-baserade system kommer att förändra inte bara hur enskilda företag är organiserade, utan nationella ekonomier som helhet. Men detta kommer att kräva skapandet av ny matematik och fysik, och en ny förståelse av världen som helhet."

En annan anmärkningsvärd publikation, "Return to Self-Regulatory Systems", dök upp för drygt ett år sedan i en av de mest inflytelserika affärstidningarna, Forbes ( http://www.forbes.com/asap/2002/1007/020_print.html). Den är helt ägnad åt problemen med feedback. Själva publiceringen av artikeln och dess innehåll förtjänar noggrann uppmärksamhet. För det första, efter decennier av tystnad eller, mer troligt, avsiktlig tystnad, diskuterades återigen cybernetiska kontrollmetoder offentligt. För det andra gjordes det på ett nytt sätt; Utanför parentesen finns en hög med konstgjord och därför värdelös kunskap som genererades på 60- och 70-talen. De årens "cybernetister" byggde sitt eget "elfenbenstorn" av det, låste in sig i det och därigenom alienerade människor med en praktisk tankestil. På grund av splittringen mellan bärarna av cybernetisk kunskap och anhängare av massteknologi, var det en förlust av kontinuitet; som ett resultat måste vi idag återigen förklara grunderna i cybernetik, vilket är precis vad Michael Malone, författaren till en artikel i Forbes, gör. Han förklarar populärt vikten av feedback i levande natur och i teknik, även om detta, det verkar, borde vara känt för alla utbildade personer.

Som den senaste och vackra exempel Med hjälp av feedback citerar Malone den nyligen uppfunna Segway-skotern, såväl som företagsledningssystem i realtid. Vi återkommer till företagsledningssystem senare. När det gäller Segway är det verkligen ett unikt rörligt system; Jag hade chansen att åka ett par tiotals meter på denna skoter och upplevde en fantastisk sensation. Möjligheten för denna skoter att röra sig ovanligt tillhandahålls av ett svänghjul och ett återkopplingsstabiliseringssystem. Förresten, vår landsman P.P. Shilovsky försökte göra något liknande för 90 år sedan, men då var det orealistiskt att skapa ett fullfjädrat kontrollsystem en sådan möjlighet har dykt upp först nu för detta ändamål, en kraftfull dator är inbyggd i Segway.

Feedback börjar inkluderas i experimentella produkter och annan ny teknik. Forbes lyfter fram flera exempel, inklusive arbetet av Federico Faggin, en av uppfinnarna av mikroprocessorn och grundaren av Zilog. På sitt nuvarande företag, Synaptics, arbetar Fagin med en i grunden ny typ av processor. En sådan processor kommer att kunna byggas om i enlighet med de nödvändiga funktionerna den kan konfigureras för den mest effektiva användningen som en testprocessor, en aritmetisk maskin, en processor för mobiltelefon eller mikrokontroller. Ännu ett exempel. På Caltech utvecklar datorindustriveteranen professor Karved Meed en videokamera med ett stabiliseringssystem som liknar det mänskliga ögat.

Förtroendet för att det cybernetiska tillvägagångssättet kommer att bli ett av de ledande i framtiden bygger på det faktum att datorsystem har nått gränser som inte kan övervinnas utan det. Dessa gränser är en utmaning av komplexitet, liksom behovet av att skapa kontrollsystem i realtid.

Komplexitetskrisen och programhantering

En av anledningarna till den moderna datorkrisen - kanske den viktigaste - ligger i teknikens uppenbara, men få erkända, företräde framför vetenskap, ingenjörsstilens företräde framför den vetenskapliga eller filosofiska stilen, som har blivit etablerad. under de senaste decennierna. Som ett resultat av en lavinartad och okontrollerbar teknisk tillväxt, stimulerad inte så mycket av verkliga behov som av datormarknadens egenheter, genererades ett vansinnigt antal olika typer av teknologier och tekniska lösningar, som ständigt förnekade varandra. Informationssystem har blivit ett monstruöst konglomerat av produkter. Som en följd av detta kom problemet med komplexitet i dagen under de första åren av det nya millenniet. Det var en obehaglig överraskning att system, särskilt programvaror, hade blivit alltför komplexa. 2003 blev komplexitet ett av de hetaste ämnena, men ingen som pratar om problemen med komplexitet inom IT ställde frågan: "Varför stötte datoran på problemet med komplexitet? Varför talar inte moderna fysiker, biologer eller astronomer om komplexiteten i sitt ämne, saknar de komplexitet?”

Fläktmaskin, Kina

Ganska nyligen hade jag möjlighet att diskutera problemet med mjukvarusystemens komplexitet med huvudideologen från ett av de mest kända företagen som levererar programvara för applikationsutveckling. Jag kommunicerade med honom tidigare, och utifrån tidigare samtal fick jag intrycket av honom som en person, om inte av akademiker, så i alla fall av ganska breda åsikter. Men så fort vi började diskutera komplexitetsproblem visade min samtalspartner en överraskande brist på kunskap inom området systemteori. Det visade sig att all hans kunskap är inom gränserna mjukvarutekniker. Jag kunde inte låta bli att jämföra det med vad som kallas "slutna system", vars modernisering kräver en "extern impuls".

Varför är detta mest intressant och den smartaste personen visar sig helt enkelt vara hjälplös när han måste gå utanför gränserna för sin specialitet, bortom programmeringen han kan väl? Jag riskerar att ge en förklaring som kan orsaka oenighet eller till och med ilska hos många. Enligt mig ligger poängen i själva ämnet – i programmering och i inställning till det.

Vi är så vana vid programvara som ämne för vår verksamhet att vi helt har glömt den ursprungliga betydelsen av ordet "program". Och i engelska språket, och det kom in i det ryska språket som ett resultat av lån från franska program för ord. (Förresten, det är därför vi på ryska skriver DETTA ord med två "m".) Dess rötter är grekiska, prographein betyder "skrivet i förväg" (pro - "i förväg", grafein - "att skriva"). Programstyrning förutsätter att ett program som skrivits i förväg för en enhet exekveras av den som avsett. Följaktligen ligger konsten med all programmering, inklusive datorprogrammering, i att ta hänsyn till absolut alla möjliga faktorer och förhållanden i den yttre miljön, och om de beaktas absolut exakt, har programmet möjlighet att köras framgångsrikt, men någon extern oförutsedd störande påverkan och program maskinen springer vilt. Programvarukontroll kan framgångsrikt manipulera en enhet som är löst kopplad till den externa miljön, såsom en tvättmaskin eller en dator som är utformad för att behandla känd data.

Märkligt nog var det ålderdomlig mjukvarukontroll som var och förblir grunden för moderna datorsystem; Datorn körs enligt ett förskapat program. Som ett resultat av detta förblir både avancerade moderna programmeringsmetoder och högteknologiska datorer själva, med sällsynta undantag, ideologiskt nära den allra första primitiva programmerbara automaten. Kopparskivan med hål ersattes av minne, systemet med spakar ersattes av processorer, men idén om att köra ett förutbestämt program kvarstod. I grund och botten, i den modernaste datorn är allt exakt detsamma som det var i Charles Babbages Analytical Engine. Den enda skillnaden är von Newman-schemat, enligt vilket program och data lagras i samma minne. Nästan det enda återkopplingsundersystemet är den automatiska fläkten som slås på.

På 60- och 70-talen, isolerade, upptäcktes väldigt få försök till alternativa tillvägagångssätt, men de krossades helt enkelt genom att aktivt utveckla teknologier. Själva ordet "teknik" har kommit i förgrunden. Idag kallas allt som görs med hjälp av datorer för informationsteknik. Det finns en ersättning av målet med medlet. Under åren sedan dess har specialister vuxit upp och ockuperat nyckelpositioner utan den minsta aning om cybernetik som en vetenskap om management. Inte nog med att de inte känner till namnen Gregory Bateson eller Ludwig von Bertalanffy, de kan knappt komma ihåg vem Norbert Wiener var. De arbetar enkelt och enkelt med begrepp som "system", "realtid", "feedback", "fördröjning", men har ingen aning om var de kom ifrån. För denna generation av specialister verkar teknikens företräde framför vetenskapen ganska naturligt. Dessutom har deras aggressiva inställning till vetenskap historiska analogier: det är så kultur och vetenskap behandlas i tider då samhället går in på en väg av regression.

Men programkontroll sätter per definition gränser för systemets komplexitet, eftersom möjligheten att ta hänsyn till fler och fler faktorer inte är obegränsad. Eftersom mjukvarustyrda system har en begränsning av komplexitet, är därför komplexitetskrisen i datorsystem inget annat än en kris av själva principen om programkontroll, på grundval av vilken de har byggts fram till nu. Samtidigt är det enda alternativet till programstyrning återkopplingsstyrning, som tar hänsyn till yttre påverkan och anpassar beteendet hos det kontrollerade objektet därefter.

Det är ingen slump att IBM var en av de första som pratade om problemen genom munnen av sin chefsforskare Paul Horn, författaren till Autonomic Computing-memorandumet. (Av någon anledning är autonom i detta namn översatt med ordet "autonom", även om "självstyrande" skulle vara mer korrekt.) I promemorian står det att det är dags att bygga datorsystem som måste fungera automatiskt och svara till förändringar i miljön. miljö, reparera sig själv när fel uppstår och har något som liknar ett immunförsvar. Ett liknande ideologiskt arbete utförs av professorn Dave Patterson vid Berkeley University, samma som vi är skyldiga idéerna med RAID-diskarrayer och RISC-processorer.

Feedback och RTE

Den omedelbara anledningen och dessutom stimulansen till att denna artikel dök upp var ett besök på symposiet som Gartner-gruppen anordnar i Cannes varje höst. Vanligtvis kan det som händer här kännetecknas av ett ord från modespecialisternas ordförråd - "predaporte". Allmänheten presenteras för en bedömning av de omedelbara utsikterna för IT och en blick bortom horisonten begränsad till de kommande fem till sju åren. Som du kanske förväntar dig var den term som användes oftast här 2003 Realtid. En analys av konferensskivan övertygar oss om detta: denna term finns i mer än en tredjedel av de presentationer som publiceras på den av totalt över trehundra. Statistik visar att orden Realtid oftast ingick i cirkulationen av "realtidsföretag" (Real Time Enterprise, RTE), men användes också i kombination med orden "arbete" (Realtidsarbete), "infrastruktur" ( Realtidsinfrastruktur), "interaktion" (Real Time Collaboration) och inte mindre än ett dussin andra. En så tydlig dominans av ett begrepp behöver uppenbarligen förklaras, särskilt eftersom RTE-frågan var närvarande i en eller annan form i alla nyckeltal.

Programmerbar automat från 1600-talet

Ökad uppmärksamhet på RTE kan också betraktas som ytterligare ett marknadsföringsdrag som syftar till att attrahera nya investeringar inom IT – vi har sett många sådana prejudikat de senaste åren. Men kanske (och detta, enligt min mening, är mer troligt) finns det anledning att tro att vi bevittnar mycket allvarliga förändringar, vars namn är Real-Time i allmänhet och Real Time Enterprise också.

Tillämpningen av begreppet realtid på företaget som helhet, i motsats till den traditionella idén om realtid som ett attribut för tekniska system, måste diskuteras från en affärsmässig synvinkel. Gartner-gruppen, som är i just denna affärsposition, förstår RTE som en typ av företag som uppnår konkurrensfördelar genom att snabbt använda information om händelser och minska förseningar i beslutsfattande. RTE betraktas som en teknisk grund nytt tillvägagångssätt, som kallas beräkning i "realtid", eller i "nära realtid" (nära realtid), eller i "rätt tid" (rätt tid), eller helt enkelt "i tid". I slutändan kommer övergången till "realtid" ner på den uppenbara önskan att minska fördröjningen mellan det ögonblick en händelse upptäcks och reaktionen på den. Vad du än kallar detta tillvägagångssätt förändras inte essensen - informationssystemet baserat på det förser beslutsfattare med aktuell information och förmågan att fatta beslut i den hastighet som verksamheten kräver.

Det finns andra liknande definitioner utifrån ungefär samma premisser från affärssidan. En av de mest kända RTE-evangelisterna, författare till The Real-Time Enterprise and Business Process Management: The Third Wave, Peter Fingar ger följande definition: "Realtidshantering inkluderar både taktiska åtgärder för att allokera resurser och lösa strategiska problem."

Aberdeen Group anser att RTE ger verkliga företag tre typer av affärsfördelar: proaktiv ledning, taktisk lyhördhet och strategisk flexibilitet. Följaktligen kan realtidsberäkning, ur samma affärsmässiga synvinkel, inte längre betraktas som en isolerad uppsättning teknologier, den ackumulerar företagets infrastruktur och till och med företagskulturen. För att implementera denna typ av datoranvändning är det nödvändigt att gå bortom etablerade idéer, ompröva inställningen till informationsresurser: bedöma vilken data som bör vara tillgänglig i första hand och vilka krav är för att datapresentationen är korrekt. Ledningspersonal och utförare bör utbildas på lämpligt sätt, och relationerna med leverantörer och kunder bör förbättras.

Det är fortfarande svårt att begränsa mängden tekniker som tillhandahåller RTE. Det finns uppenbara krav, de måste ge ett svar på yttre förhållanden ("händelse" - händelse, "larm" - varning), de måste tillhandahålla bekväma "hanteringspaneler", stödja en mängd olika Mobil enheter. Stödteknik bör inkludera inbyggda DBMS i realtid, analysapplikationer, applikationsintegrationsmäklare, inklusive meddelandeorienterad mellanprogramvara (MOM), såväl som portalteknologier och kunskapshanteringsverktyg. RTE-förespråkare tror att "privata" lösningar som Customer Relationship Management (CRM), Supply Chain Management (SCM) och Enterprise Resource Planning (ERP)-applikationer kommer att smälta samman." på plattformen" av verktyg för affärsprocesshantering (Business Process Management, BPM).

Gartner Group-analytiker tror att under de kommande femton åren kommer viktiga förändringar inom IT att vara förknippade med skapandet av system som tillhandahåller företagsledning utan tidsfördröjningar i hanteringen (noll latens). Som ett resultat kommer de flesta seriösa företag att hanteras i realtid under de kommande åren. De som inte går med i denna process kommer att börja uppleva farliga konkurrenssvårigheter under de kommande fem till åtta åren.

Tyvärr kan den metodiska nivån på vilken RTE-problem diskuterades under symposiet inte anses vara tillfredsställande. Experternas tal kännetecknades av överdriven pretentiöshet, som oftast representerade en uppsättning slagord. En analogi med de alltid minnesvärda "uppropen från SUKP:s centralkommitté", som publicerades två gånger om året, på tröskeln till revolutionära helgdagar, antyder ofrivilligt sig själv. De nuvarande "samtal" från Gartner symboliserar tröskeln till "post-Internet"-ekonomin, där den avgörande faktorn är beslutsfattandets hastighet. Nedan finns några av dem (observera att de är de mest informativa).

  • För att trivas i den nya ekonomin måste företag identifiera kritiska affärshändelser och föregångarna till dessa händelser.
  • År 2006 kommer mer än 70 % av de stora företagen att analysera händelser i realtid (sannolikhet 0,8).
  • Under de kommande tre åren måste företag anta tjänsteorienterade affärsapplikationer (SOBA) för att uppnå affärseffektivitet.

Det är ingen slump att en av rapporterna drog slutsatsen: "Även om vi definierar realtidsföretaget som ett affärsmål, kan vi för närvarande främst prata om IT. Samtidigt kan ett företag utvecklas utan IT, eller det kan försämras även med närvaron av teknik; kvaliteten på förvaltningen är avgörande." Vem vet, kanske sades detta för i Cannes är det främst inte tekniska specialister som samlas, utan de som fattar beslut, och Gartner-experter försökte förmedla till denna kategori av lyssnare vad de anser vara det viktigaste - på en anpassad och mer välbekant för dessa former.

Några klargörande kommentarer behöver göras. En av dem kan tyckas rent terminologisk, men det är möjligt att det är just detta som är av avgörande betydelse. Vi översätter till ryska två engelska ord ledning och kontroll i ett ord - "ledning". Den förstnämnda definieras i Merriam-Webster-ordboken som "konsten" eller "the act of management", dvs. hantering av något” eller övervakning av något. Den andra ligger närmare innebörden av "reglering". I denna tolkning finns det ganska subtila terminologiska skillnader, det är ingen slump att samma disciplin kallas både teorin om automatisk reglering och teorin om automatisk styrning. Så, i diskussioner om frågor relaterade till RTE, betyder de vanligtvis bara ledning i betydelsen ledning, helt saknar aspekten av reglering. Lutningen mot ledningen leder till märkliga konsekvenser, framför allt till att cybernetikens och den allmänna systemteorins prestationer lämnas bakom sig. Diskussionen förs på ett slags fågelspråk, bestående av privata och mycket specifika begrepp och handlingar, utan den ordentliga generaliseringsnivån.

Den andra punkten hänför sig till den ständigt upprepade refrängen att RTE inte är något annat än ett svar på företagens krav. I matematiken talar man om nödvändiga och tillräckliga förutsättningar som gör tillvaron möjlig. Behovet från näringslivets sida kan anses vara en nödvändig förutsättning, och en tillräcklig förutsättning är vetenskapens och teknikens utvecklingsnivå. Tills nyligen fanns det ingen teknisk möjlighet att bygga ett fullfjädrat automatiserat företagsledningssystem som fungerar i realtid. Ett välkänt postulat för kontrollteorin är att kontrollsystemet måste vara tillräckligt komplext för det kontrollerade objektet först nu, när moderna nätverksinfrastrukturer och datorer har dykt upp, har den tekniska förmågan att bygga RTE bildats. Först på senare år har ett komplex av teknologier vuxit fram, allt från produktidentifiering med hjälp av radio (radiofrekvensidentifiering, RFID) och personalidentifiering (Identity Management) till portalteknologier, datalager och business intelligence (Business Intelligence, BI), som låter dig montera det system som krävs.

På 60-70-talet i Sovjetunionen gjordes naiva försök att skapa automatiserade företagsledningssystem. Då var de dömda att misslyckas på grund av vissa sociala förhållanden och svagheten i den tekniska basen. Dessutom skapades automatiserade kontrollsystem av personer med djup utbildning och en cybernetisk vision av problemen som löses, men utanför ekonomiska kategorier. Men tanken på automatisering var attraktiv. Det är ingen slump att användningen av cybernetik i alla möjliga titlar var så populär på den tiden (ofta handlade det om skämt, till exempel råkade författaren se manuskriptet till en bok med titeln "Legal Cybernetics"). Åren har gått och ungefär samma tankar återupplivas under parollen "Real-Time Enterprise" - tyvärr på en annan plats. Nu är deras apologeter specialister med en ingenjörsstil. Deras försök, som de presenteras, är med största sannolikhet dömda att misslyckas på samma sätt. Om det nu vore möjligt att kombinera ACS och RTE... Men vem vet?

Från feedbackhistoriken

Hela historien om teknikutveckling är direkt relaterad till användningen av feedbackprinciper i förvaltningen. Den kan grovt delas in i tre perioder: den antika perioden, perioden av renässansen och den industriella revolutionen i Europa och den moderna perioden som började på 1900-talets tionde år.

De första kända enheterna som använde feedback var grekiska vattenklockor som går tillbaka till 300-talet f.Kr. Ungefär samtidigt designade Philo of Byzantium en oljelampa, där en återkopplingsmekanism gjorde att oljenivån kunde hållas på en konstant nivå. I början av det första årtusendet gjorde den stora mekaniken i Grekland - och särskilt Heron of Alexandria - ett antal förbättringar av vattenklockor och skapade många olika apparater relaterade till försörjningen av vin och andra vätskor. Det finns också kända enheter tillverkade av arabiska och kinesiska mekaniker under andra halvan av det första årtusendet.

En av de första enheterna som använde feedback var en klocka, där visarens rörelse korrelerades med en "klockgenerator", som spelades av olika typer av pendlar. Det är sant att det är omöjligt att kalla en klocka (mekanisk eller elektronisk) en självreglerande mekanism i full mening, eftersom den periodvis, eftersom den är en mjukvaruenhet, springer iväg eller släpar efter och behöver korrigeras. Den viktigaste uppfinningen som gick till historien om feedback och en av de mest betydelsefulla för genomförandet av den industriella revolutionen var centrifugalguvernören som föreslogs av James Watt för att begränsa rotationshastigheten för ångmotoraxeln. Liknande, men mer primitiva anordningar användes i väderkvarnar. Det exakta födelsedatumet för regulatorn är känt - det hände den 28 maj 1788. Det var från detta ögonblick som den verkliga eran av ånga i industrin började. De första försöken att utnyttja ångkraften gjordes mycket tidigare; dessa var de så kallade ånga-atmosfäriska maskinerna. 1712 byggdes en sådan maskin av Thomas Newcomen; Den ryske mekanikern Ivan Ivanovich Polzunov skapade en liknande maskin 1766. Dessa maskiner användes dock inte i stor utsträckning eftersom de inte kunde fungera i automatiskt läge - de behövde en mänsklig regulator och som ett resultat hade de låg effektivitet.

Det är värt att notera att Watt-regulatorn inte var den enda enheten med feedback. Temperaturregulatorer skapade av Johannes Kepler, Rene Reamur och andra vetenskapsmän på 1600- och 1700-talen, samt olika flödes- och tryckregulatorer, är kända. Men det var först och främst enheten skapad av Watt som gick till historien. Trots sin uppenbara enkelhet var regulatorns funktionsprincip föremål för studier under hela 1800-talet. De första seriösa matematiska verken som ägnades åt feedbackanalys tillhörde den brittiske astronomen G.B. Airy, som använde feedback för att stabilisera teleskopet. Ett viktigt bidrag till stabiliseringsteorin gjordes av James Maxwell, som använde differentialekvationsapparaten för att beskriva rörelse. Oberoende av honom utfördes liknande arbete av den ryska vetenskapsmannen I.I. Vyshnegradsky. Den första som skapade förutsättningarna för modern managementteori var A.M. Lyapunov; han baserade sin forskning på icke-linjära differentialekvationer. Det hände så att Lyapunovs verk förblev okända för världssamfundet fram till 60-talet av förra seklet.

Nästa industriella revolution i slutet av 1800- och början av 1900-talet gav ny impuls till skapandet av enheter med hjälp av feedback. Flyg blev ett viktigt område för deras tillämpning. Alla vet att bröderna Wright var de första som flög ett farkost tyngre än luften, men varför just dem, vad var poängen med deras uppfinning? Den avgörande rollen spelades av att de kunde använda principen om återkoppling i kontroll för att stabilisera flygningen. Bröderna Wright föreslog en kontrollerad vinge, för vilken de inkluderade skevroder i vingdesignen, vars funktion säkerställer stabilitet. 1914 använde amerikanen Elmer Sperry först ett gyroskop för att styra skevroder, som ursprungligen var avsett för fartygsnavigering. Användningen av ett gyroskop för flygkontroll såg väldigt imponerande ut. Ovanför flygfältet lämnade piloten (Sperrys son) och mekanikern kontrollen och gick in i flygplanets plan, som fortsatte sin flygning i automatiskt läge.

Elektronik har gjort det möjligt att skapa effektivare styrsystem jämfört med mekaniska enheter. De grundläggande principerna studerades med de första rörförstärkarna, och två kategorier av återkoppling identifierades - positiv och negativ. Detta arbete utfördes, bland annat i Kalifornien, och de ledde slutligen till skapandet av världsdatorcentret Silicon Valley. Harry Nyquist spelade en speciell roll i studiet av negativ feedback. Han var en ättling till emigranter från Sverige och var en mångsidig forskare. Vi är skyldiga honom fototelegrafens idéer, som idag finns förkroppsligade i moderna faxar, men han gick in i teknikens historia tack vare arbete relaterat till att säkerställa stabiliteten hos förstärkare. Nyquistkriterierna och Nyquist-satsen, skapade 1932, ingick i alla universitetets elektronikkurser.

På 1940-talet användes statistiska metoder för återkoppling. I USA tillhör palmen Norbert Wiener, han arbetade på forskningslaboratoriet vid Massachusetts Institute of Technology. Något tidigare har resultat om användandet av probabilistiska metoder i förvaltningen erhållits av A.N. Kolmogorov, men av sekretesskäl blev de allmänt kända långt senare. En av de bästa skolorna i världen om teorin om automatisk kontroll skapades i Sovjetunionen, den inkluderade dussintals namn på vetenskapsmän i världsklass. Det är ingen slump att den första konferensen för International Federation of Automatic Control (IFAC) ägde rum i Moskva 1960.

Pionjären inom området för praktisk användning av gyroskop var P.P. Shilovsky, en fantastisk person: han lyckades kombinera ingenjörsaktiviteter med Kostroma-guvernörens uppgifter. Han skapade, byggde 1914 och testade själv en tvåhjulig bil med gyroskopisk stabilisering. Efter detta utvecklade han anordningar för brandkontroll, för att stabilisera flygplanens flygning och till och med ett projekt för ett monorailtåg.

TEKNIK FÖR BEHANDLING AV INDUSTRIINFORMATION

Det utbredda införandet av informationsteknik och system, dator- och telekommunikationsteknik inom områdena ekonomisk förvaltning, vetenskaplig forskning, produktion, såväl som framväxten av många företag - datortillverkare och utvecklare programvara under förra seklets sista kvart ledde det ofta till en situation där: programvara som fungerar utan problem på en dator inte fungerar på en annan; systemenheterna i en datorenhet har inte gränssnitt med hårdvaran hos en liknande; Företagets IS bearbetar inte kund- eller kunddata som utarbetats av dem på sin egen utrustning; När du laddar en sida med en "främmande" webbläsare, istället för text och illustrationer, visas en meningslös uppsättning tecken på skärmen. Detta problem, som verkligen har påverkat många affärsområden, kallas problemet med kompatibilitet mellan dator-, informations- och telekommunikationsenheter.

Utvecklingen av system och medel för datorteknik, telekommunikationssystem och den snabba utvidgningen av deras tillämpningsområde har lett till behovet av att kombinera specifika datorenheter och IS implementerade på grundval av dem till enhetliga informationsdatorsystem och miljöer för att bilda en enhetlig information space (Unified Information Area - UIA). Bildandet av ett sådant utrymme har blivit en akut nödvändighet för att lösa många av de viktigaste ekonomiska och sociala problemen under bildandet och utvecklingen av informationssamhället.

Ett sådant utrymme kan definieras som en uppsättning databaser, kunskapsarkiv, kunskapshanteringssystem, informations- och kommunikationssystem och nätverk, metoder och teknologier för deras utveckling, underhåll och användning på grundval av enhetliga principer och allmänna regler som säkerställer informationsinteraktion till möta användarnas behov. Huvudkomponenterna i ett enhetligt informationsutrymme är:

Informationsresurser som innehåller data, information, information och kunskap, insamlade, strukturerade enligt vissa regler, förberedda för leverans till den intresserade användaren, skyddade och arkiverade på lämpliga medier;

Organisatoriska strukturer som säkerställer funktionen och utvecklingen av ett enhetligt informationsutrymme och hantering av informationsprocesser - sökning, insamling, bearbetning, lagring, skydd och överföring av information till slutanvändare;

Verktyg för att säkerställa informationsinteraktion, inklusive hårdvara och mjukvara, telekommunikation och användargränssnitt;


Juridiska, organisatoriska och reglerande dokument som ger tillgång till IR och deras användning baserat på relevant IKT.

När de bildade ett enhetligt informationsutrymme stod chefer, arkitekter och mjukvaru- och hårdvaruutvecklare inför ett antal organisatoriska, tekniska och tekniska problem. Till exempel krävde heterogeniteten hos tekniska medel för datorteknik när det gäller organisationen av beräkningsprocessen, arkitektur, kommandosystem, processorkapacitet och databuss skapandet av fysiska standardgränssnitt som implementerar den ömsesidiga kompatibiliteten mellan datorenheter. Men med en ytterligare ökning av antalet typer av integrerade enheter (antalet sådana moduler i moderna distribuerade datorer och informationssystem uppgår till hundratals), ökade komplexiteten i att organisera fysisk interaktion mellan dem avsevärt, vilket ledde till problem med att hantera sådana system.

Heterogeniteten hos programmerbara miljöer implementerade i specifika datorenheter och system, när det gäller olika operativsystem, skillnader i bitdjup och andra funktioner ledde till skapandet av mjukvarugränssnitt. Heterogeniteten mellan fysiska gränssnitt och mjukvarugränssnitt i systemet "användare - datorenhet - programvara" krävde konstant koordinering ("dockning") av mjukvara och hårdvara under utvecklingen och frekvent omskolning av personal.

Historien om konceptet med öppna system börjar i slutet av 1960-talet och början av 1970-talet. från det ögonblick då det akuta problemet med portabilitet (mobilitet) av program och data mellan datorer med olika arkitekturer uppstod. Ett av de första stegen i denna riktning, som påverkade utvecklingen av datorteknik, var skapandet av IBM-360-serien av datorer, som hade en enda uppsättning kommandon och kunde arbeta med samma operativsystem. IBM Corporation tillhandahöll rabatterade licenser för sitt operativsystem till användare som valde att köpa datorer med samma arkitektur från andra tillverkare.

En dellösning på portabilitetsproblemet för program tillhandahölls av tidiga språkstandarder på hög nivå som FORTRAN och COBOL. Språken tillät skapandet av bärbara program, även om de ofta begränsade funktionaliteten. Senare utökades dessa möjligheter avsevärt med uppkomsten av nya standarder (tillägg) för dessa språk. Mobilitet säkerställdes också på grund av att dessa standarder antogs av många utvecklare av olika mjukvaruplattformar. När programmeringsspråken fick status som en de facto-standard började nationella och internationella standardiseringsorganisationer utveckla och underhålla dem. Som ett resultat utvecklades språken oberoende av deras skapare. Att uppnå mobilitet och portabilitet redan på denna nivå var det första exemplet på de verkliga kapaciteterna hos systemen som skapades, som innehöll huvuddragen i vad som senare kallades "systemets öppenhet."

Nästa steg i utvecklingen av begreppet öppenhet var andra hälften av 1970-talet. Det är förknippat med området interaktiv databehandling och den ökande volymen av information och mjukvaruprodukter som kräver portabilitet (paket för teknisk grafik, designautomationssystem, databaser och distribuerad databashantering). Det digitala företaget började producera VAX-minidatorer som körde operativsystemet VMS. Maskinerna i den här serien hade redan en 32-bitars arkitektur, vilket säkerställde betydande effektivitet i programkoden och minskade kostnaderna för att arbeta med virtuellt minne. Programmerare kunde direkt använda adressutrymme på upp till 4 GB, vilket praktiskt taget tog bort alla begränsningar för storleken på de problem som löstes vid den tiden. VAX-minidatorer av denna typ har länge blivit standardplattformen för designsystem, datainsamling och -bearbetning, experimentkontroll, etc. Det var de som stimulerade skapandet av kraftfulla datorstödda designsystem, DBMS och datorgrafik, som används i stor utsträckning till denna dag.

Sent 1970-tal kännetecknas av den snabba utvecklingen av nätverksteknik. Digital har intensivt implementerat sin DECnet-arkitektur. Nätverk som använder Internetprotokoll (TCP/IP), som ursprungligen implementerades av Defense Advanced Research Projects Agency (DARPA), har blivit allmänt använda för att koppla ihop olika system. IBM utvecklade och implementerade sin egen nätverksarkitektur (System Network Architecture - SNA), som senare blev grunden för OSI-arkitekturen som föreslagits av ISO.

Det finns ett tillräckligt antal definitioner av begreppet ”öppet system”, formulerade i olika standardiseringsorganisationer och enskilda storföretag.

Enligt experter vid National Institute of Standards and Technologies (NIST) är ett öppet system ett system som kan interagera med ett annat system genom att implementera internationella standardprotokoll. Öppna system är både slutliga och mellanliggande system. Ett öppet system behöver dock inte nödvändigtvis vara tillgängligt för andra öppna system. Denna isolering kan uppnås antingen genom fysisk separation eller genom användning av tekniska möjligheter baserade på skydd av information i datorer och kommunikationsmedia.

Andra definitioner upprepar i en eller annan grad huvudinnehållet i de givna definitionerna. Genom att analysera dem kan vi identifiera några grundläggande funktioner som är inneboende i öppna system:

De tekniska medlen på grundval av vilka informationssystemet implementeras förenas av ett eller flera nätverk på olika nivåer - från lokalt till globalt;

Implementeringen av öppenhet utförs på basis av profiler (Profiler) av funktionella standarder inom IT-området;

Informationssystem som har egenskapen öppenhet kan köras på vilken mjukvara och hårdvara som helst som ingår i en enda öppen systemmiljö;

Öppna system innebär användning av enhetliga gränssnitt i interaktionsprocesser i dator-till-dator, dator-till-nätverk och människa-till-dator-system.

I det nuvarande skedet av IT-utveckling definieras ett öppet system som en mjukvara eller informationssystem byggt på grundval av en omfattande och överenskommen uppsättning internationella IT-standarder och funktionsstandardprofiler som implementerar öppna specifikationer för gränssnitt, tjänster och deras stödjande format för att säkerställa interoperabilitet och mobilitet mjukvaruapplikationer, data och personal (IEEE POSIX 1003.0 Committee of the Institute of Electrical and Electronics Engineers - IEEE).

Exempel på användning av teknik för öppna system inkluderar Intel Plug&Play och USB-teknologier, samt UNIX-operativsystemen och (delvis) dess huvudkonkurrent, Windows NT. En anledning till att betrakta UNIX som basoperativsystem för användning i öppna system är att det nästan helt är skrivet på ett högnivåspråk, är modulärt och är relativt flexibelt.

Nuförtiden utvecklas många nya produkter omedelbart i enlighet med kraven från öppna system. Ett exempel på detta är det för närvarande mycket använda Java-programmeringsspråket från Sun Microsystems.

För att en programvara eller informationssystem ska klassificeras som ett öppet system måste det ha en kombination av följande egenskaper:

Interaktion (interoperabilitet) - förmågan att interagera med andra applikationssystem på lokala och (eller) fjärrplattformar (de tekniska medel på vilka IS implementeras förenas av ett nätverk eller nätverk på olika nivåer - från lokalt till globalt);

Standardiserbarhet - mjukvara och informationssystem designas och utvecklas utifrån överenskomna internationella standarder och förslag, öppenhet implementeras utifrån funktionella standarder (profiler) inom IT-området;

Utökningsbarhet (skalbarhet) - förmågan att flytta applikationsprogram och överföra data i system och miljöer som har olika egenskaper prestanda och olika funktioner, möjligheten att lägga till nya IS-funktioner eller ändra några redan befintliga, med de återstående funktionella delarna av IS oförändrade;

Mobilitet (portabilitet) - säkerställer möjligheten att överföra applikationsprogram och data vid uppgradering eller byte av IS-hårdvaruplattformar och möjligheten för specialister som använder IT att arbeta med dem utan deras speciella omskolning när de ändrar IS;

Användarvänlighet - utvecklade enhetliga gränssnitt i interaktionsprocesser i systemet "användare - datorenhet - mjukvara", vilket gör att en användare som inte har speciell systemutbildning kan arbeta. Användaren har att göra med ett affärsproblem snarare än dator- och mjukvaruproblem.

Dessa egenskaper hos moderna öppna system, var för sig, var också karakteristiska för tidigare generationer av informationssystem och datateknik. En ny titt på öppna system är att dessa egenskaper betraktas och implementeras i ett aggregat - som sammanlänkade och implementerade i ett komplex. Endast i en sådan helhet gör kapaciteten hos öppna system det möjligt att lösa komplexa problem med design, utveckling, implementering, drift och utveckling av moderna informationssystem.

När konceptet med öppna system utvecklades uppstod några vanliga orsaker som nödvändigtvis motiverade övergången till interoperabla informationssystem och utvecklingen av motsvarande standarder och tekniska medel.

Systemens funktion under informations- och implementeringsheterogenitet. Informationsheterogeniteten hos resurser ligger i mångfalden av deras tillämpade sammanhang (begrepp, ordböcker, semantiska regler, visade verkliga objekt, typer av data, metoder för att samla in och bearbeta dem, användargränssnitt, etc.). Implementeringsheterogenitet manifesteras i användningen av en mängd olika datorplattformar, databashanteringsverktyg, data- och kunskapsmodeller, språk och programmerings- och testverktyg, operativsystem, etc.

Systemintegration. System utvecklas från enkla, fristående delsystem till mer komplexa, integrerade system baserat på kravet på komponenter att interagera.

Systemombyggnad. Utvecklingen av ett företags affärsprocesser är en kontinuerlig process som är en integrerad del av organisationens verksamhet. Skapandet av ett IS, dess utveckling och rekonstruktion (omkonstruktion) i samband med omdesign av processer är en kontinuerlig process för att klargöra krav, omvandla systemets arkitektur och infrastruktur. I detta avseende måste systemet initialt utformas så att dess nyckelkomponenter kan rekonstrueras samtidigt som systemets integritet och prestanda bibehålls.

Transformation av äldre system. Nästan alla system, när de väl har skapats och implementerats, motstår förändringar och tenderar att snabbt bli en börda för organisationen. Legacy Systems, byggda på "utgående" teknologier, arkitekturer, plattformar samt mjukvara och informationsprogramvara, vars design inte inkluderade de nödvändiga åtgärderna för deras gradvisa utveckling till nya system, kräver omstrukturering (Legacy Transformation) i enlighet med nya krav på affärsprocesser och teknologier. Under transformationsprocessen är det nödvändigt att nya systemmoduler och de återstående komponenterna i äldre system behåller förmågan att interagera.

Förlänger livscykeln för systemen. Under förhållanden med extremt snabb teknisk utveckling krävs särskilda åtgärder för att säkerställa den nödvändiga varaktigheten av produktens livscykel, inklusive ständig förbättring av dess konsumentegenskaper (underhåll mjukvarusystem). Samtidigt måste nya versioner av produkten stödja den deklarerade funktionaliteten för tidigare versioner.

Sålunda är huvudprincipen för bildandet av öppna system att skapa en miljö som inkluderar mjukvara och hårdvara, system, tjänster och kommunikationsprotokoll, gränssnitt och dataformat. En sådan miljö är baserad på utvecklande, tillgängliga och allmänt accepterade internationella standarder och ger en betydande grad av interoperabilitet, portabilitet och skalbarhet för applikationer och data.

Internationella strukturer inom områdetring

Informationsteknologi är ett extremt komplext, mångfacetterat och mångfacetterat verksamhetsområde som syftar till att skapa IKT på alla nivåer (från federala till företag), nationell informationsinfrastruktur, informationssamhälle baserat på utveckling, integration och utveckling av informations-, dator- och telekommunikationsresurser. För att lösa dessa problem är nyckeln frågan om IT-standardisering baserad på införandet av metoder och medel för arkitektonisk och funktionell standardisering, vilket gör det möjligt att, med hjälp av gemensamma standarder och profiler, identifiera grupper av grundläggande och operativa standarder, krav, uppsättningar av funktioner och parametrar som är nödvändiga för implementering av specifika IT/IS i ämnesorienterade verksamhetsområden.

Den organisatoriska strukturen som stöder IT-standardiseringsprocessen omfattar tre huvudgrupper av organisationer: internationella standardiseringsorganisationer som ingår i FN, industriella professionella eller administrativa organisationer och industrikonsortier.

Internationella standardiseringsorganisationer som är en del av FN är:

ISO (International Organization for Standardization). ISO Standard Series;

IEC (International Electrotechnical Commission). ISO Standard Series;

ITU-T (International Telecommunication UnionTelecommunications - International Telecommunications Union). Fram till 1993 hade denna organisation ett annat namn - ISSGGT (International Telegraph and Telephone Consultative Committee - International Advisory Committee on Telephony and Telegraphy, förkortat ICCTT). Serie av standarder X.200, X.400, X.500, X.600.

Industriella professionella eller administrativa organisationer inkluderar:

IEEE (Institute of Electrical and Electronic Engineers - Institute of Electrical and Electronics Engineers, en internationell organisation - utvecklare av ett antal viktiga internationella standarder inom IT-området). LAN-standarder IEEE802, POSIX, etc.;

IAB (Internet Activities Board - Internet Activities Management Board). TCP/IP-protokollstandarder;

Regionala WOS (Workshops on Open Systems - arbetsgrupper om öppna system). OSE-profiler.

Industrikonsortierna är:

ECMA (European Computer Manufacturers Association), OSI, Office Document Architecture (ODE);

OMG (Object Management Group - objekthanteringsgrupp);

RM: Common Object Request Broker Architecture (CORBA);

X/Open (organiserad av en grupp leverantörer av datorhårdvara), X/Open Portability Guide (XPG4) Common Application Environment;

NMF (Network Management Forum - nätverkshanteringsforum);

OSF (Open Software Foundation). Den har följande erbjudanden: OSF/1 (överensstämmer med POSIX- och XPG4-standarden), MOTIF - grafiskt användargränssnitt, DCE (Distributed Computer Environment) - plattformsintegrationsteknik: DEC, HP, SUN, MIT, Siemens, Microsoft, Transarc, etc. , DME (Distributed Management Environment) - distribuerade miljöhanteringsteknologier.

Internationella organisationer och konsortier - standardutvecklare

IT Functional Standardization Framework

ISO- och IEC-standarderna har kombinerat sina aktiviteter inom IT-standardiseringsområdet och skapat ett enda organ JTC1 - Joint Technical Committee 1, utformad för att bilda ett omfattande system av grundläggande standarder inom IT-området och deras expansion för specifika verksamhetsområden.

IT-standardarbetet i JTC1 är organiserat tematiskt i underkommittéer (SCs) relaterade till utveckling av IT-standarder relaterade till OSE:s öppna systemmiljö.

Följande är namnen på några av dessa kommittéer och underkommittéer:

C2 - teckenuppsättningar och informationskodning;

SC6 - telekommunikation och informationsutbyte mellan system;

SC7 - mjukvaruutveckling och systemdokumentation;

SC18 - text- och kontorssystem;

SC21 - Open Distributed Processing (ODP), Data Management (DM) och OSI Open Systems Interconnection;

SC22 - programmeringsspråk, deras miljöer och systemprogramvarugränssnitt;

SC24 - datorgrafik;

SC27 - allmänna säkerhetsrutiner för IT-applikationer;

SGFS är Specialintressegruppen för funktionella standarder.

För närvarande finns det flera auktoritativa samhällen i världen som är involverade i utvecklingen av öppna systemstandarder. Den viktigaste aktiviteten inom detta område är dock IEEE-aktiviteten i POSIX-arbetsgrupperna och -kommittéerna (Portable Operating System Interface). Den första POSIX-arbetsgruppen bildades i IEEE 1985, ur den UNIX-orienterade standardkommittén (nu UniForum). Därav det initiala fokuset för POSIX-arbetet på att standardisera UNIX OS-gränssnitt. Men successivt utökades POSIX-arbetsgruppernas arbetsgrupper så mycket att det blev möjligt att prata inte bara om standard UNIX OS, utan om POSIX-kompatibla operativmiljöer, alltså vilken operativ miljö vars gränssnitt överensstämmer med POSIX-specifikationerna.

Internationella standarder måste implementeras för varje systemkomponent i nätverket, inklusive alla operativsystem och applikationspaket. Så länge komponenter uppfyller sådana standarder, uppfyller de målen för öppna system.