information

Verificeret
Artiklens indhold er godkendt af redaktionen.

Information. Diagram over det generelle kommunikationssystem. Systemet beskriver, hvorledes information formidles fra kilde til destination.

information, oplysning, meddelelse, efterretning etc. I daglig tale bruges ordet information om oplysninger, hvis værdi som erkendelse ligger mellem rå data og indsigtsfuld viden. Data bliver til information, når de fortolkes, og information kan udtrykke en bestemt viden, så rækkefølgen data-information-viden-indsigt svarer til en stigende grad af erkendelse. Man kan fx godt have en række informationer om den danske økonomi uden at forstå sammenhængen mellem de mange tal.

Der klæber til ordet information en betydning af noget stykkevis og fragmenteret, og den er da også kun for alvor oplysende, hvis den sættes i sammenhæng og perspektiv. En avis er ikke informativ, hvis den kun giver ubrugelig, formålsløs eller forkert information. Skal noget leve op til at være relevant information, skal det have en bestemt virkning på modtageren — information er "en forskel, der gør en forskel", som antropologen Gregory Bateson formulerede det.

Information kan anskues som den betydning, der udveksles ved alle former for kommunikation. Her samler interessen sig om adgangen til oplysninger, og den måde hvorpå oplysninger indsamles, bearbejdes, opbevares, videregives og forstås. Informationsteknologi kan understøtte disse processer, men omsætning af information til viden kræver altid, at en eller flere personer udfører et erkendelsesarbejde. Disse processer er genstand for både tekniske og humanistiske videnskaber, fx datalogi, informationsvidenskab, kommunikation, psykologi, semiotik.

Ordet information kommer af latin informatio, af informare 'give form til, danne', senere 'uddanne', i middelalderlatin også 'underrette'.

Snarere end ét begreb er ordet information en familie af lidt forskellige begreber med en vis fælles lighed. Sommetider bruges det specifikt og i kontrast til data og viden, andre gange betyder det oplysning eller meddelelse i bred forstand. Ordet har særlige betydninger i en række videnskabelige discipliner. Det har været betragtet som grundbegreb i kybernetikken, der i 1950'erne blev lanceret som en generel teori om styring og kontrol i maskiner, dyr og mennesker. Siden 2. Verdenskrig har udforskningen af informationsbaseret styring af komplekse systemer spillet en central rolle i indbyrdes forbundne discipliner som kybernetik, informationsteori, operationsanalyse, generel systemteori, kunstig intelligens og kognitionsforskning. Informationsbegrebet har også tiltrukket sig betydelig filosofisk interesse: Kan mennesket forstås fuldt ud som en kompleks informationsbehandlende mekanisme? Indtil videre er det tvivlsomt, fordi information har en indholdsside: et aspekt af mening, som kræver en fortolkning. I psykologi, sprogvidenskab, informationsvidenskab, semiotik og medieteori fokuseres der på de indholdsmæssige og fortolkningsafhængige aspekter af samfundets udveksling af information.

For mange af de sammenhænge, hvori begrebet "information" bruges i praktisk og teoretisk arbejde, se evt. http://www.informationsordbogen.dk/cluster.php?cl=1

Matematisk informationsteori

Den amerikanske matematiker Claude E. Shannon udformede i 1948 en matematisk teori for overførelse af signaler eller informationsmængder i tekniske systemer. Som ansat ved Bell Laboratories interesserede Shannon sig for generelle principper for konstruktion af telegrafi og telefoni, bl.a. spørgsmålet om kodning og afkodning af de signaler, der sendes igennem en informationskanal. Kommunikationssystemet består af følgende kæde: en kilde, der afgiver budskabet, en sender (transmitter), der koder budskabet i et signal og afsender det, en kanal (som altid rummer en vis støj), en modtager, der afkoder budskabet, og en destination, fx den person, der til sidst forsynes med den overførte information. Hele systemet er så generelt, at det passer til et utal af situationer, fx telefonsamtaler og radiotransmissioner. Shannons informationsteori beskriver de tekniske betingelser, under hvilke information kan overføres mest effektivt, så den modtagne information adskilles fra den ydre støj. Man kan bl.a. sikre overførelse af det korrekte budskab ved at øge redundansen, dvs. de signaler i kommunikationen, som gentager sendt information; fx indeholder sætningen "der står en bænk i haven, i haven står en bænk" en del redundans.

Det er en basal idé i matematisk informationsteori, at den ikke beskriver informationens betydning eller mening (semantik), men behandler den som en fysisk kvantitet, i stil med stof og energi. Informationen i en meddelelse er da den mængde, der svarer til det antal ja/nej-spørgsmål (også kaldet antal bit), man skal besvare for at kunne bestemme meddelelsen præcist. Jo flere spørgsmål dette kræver, jo mere information indeholder meddelelsen.

Information anskues som bestemmelse af en oplysning (eller hændelse) ud fra et givet antal mulige. Slår man plat og krone med en mønt, er der to mulige udfald, hver med sandsynligheden 1/2. Kastes en mønt tre gange, er der 2∙2∙2 = 8 mulige udfald, hver med sandsynligheden 1/8, og der skal tre bit til at specificere et givet udfald, svarende til de tre ja/nej-spørgsmål: "blev første kast plat?", "blev andet kast plat?" og "blev tredje kast plat?". Oplysningen "jeg slog 3 gange og fik krone, krone, plat" kan kodes i tre bit, fx i binære cifre som 001.

Mere alment, hvis der er N muligheder, der alle er lige sandsynlige, er informationsmængden H, målt i enheden bit, der skal til for at specificere én af disse, lig med totalslogaritmen til N, dvs. H = log2N. Fx for N = 8 er H = log28 bit = 3 bit. Er de enkelte hændelser eller oplysninger ikke lige sandsynlige, er den informationsmængde, der er forbundet med den enkelte oplysning (fx oplysning nr. x med sandsynligheden px), lig med totalslogaritmen til dennes inverse sandsynlighed, Hn = log2(1/px). Man ser, at jo mere usandsynlig en oplysning er (jo mindre p er), jo større bliver informationsværdien af at få den pågældende meddelelse. Intuitivt er det klart, at en oplysning om, at det i dag sner i Grønland, indeholder mindre informationsværdi end en oplysning om, at det i dag sner i Egypten.

Man kan sammenligne informationskanalen med et transportsystem og måle den hastighed, R (i bit/s), hvormed der produceres signaler ved kilden, og den kapacitet, C (i bit/s), hvormed kanalen kan føre signalerne videre. Hvis signalerne pakkes effektivt, og C er større end eller lig med R, kan kanalen udnyttes optimalt. Shannon fandt et støj-kanalkapacitet-teorem, som siger, at hvis informationsproduktionen er mindre end kanalkapaciteten, kan der altid konstrueres en kode (til brug ved indkodning og afkodning), så kildens output genskabes ved destinationen med så lille en fejlsandsynlighed som ønsket.

Shannon definerede et mål for det gennemsnitlige informationsindhold pr. signal, nemlig den negative sum af produkterne af de enkelte signalers sandsynligheder og totalslogaritmen til disse: H = -Σpilog2pi, og kaldte dette for entropi. Det måler, hvor megen information en iagttager kan forvente at få pr. signal. Denne mængde bliver større, jo mere ensartede de enkelte signalers sandsynligheder er. Det svarer til, at hvis en "tekst" fremkommer ved tilfældige slag på tastaturet, vil dens entropi nærme sig det maksimale, da de enkelte tegn er lige sandsynlige. I en ekstremt ordnet "tekst" dannet af gentagelse af et eller ganske få bogstaver vil entropien derimod nærme sig nul. I en normal tekst med meningsfulde sætninger vil entropien være der imellem, fordi de grammatiske (og andre) bånd på kombinationen af bogstaver vil trække bort fra en ensartet sandsynlighedsfordeling med maksimal entropi. Det har givet anledning til forvirring, at Shannon anvendte ordet entropi, som er hentet fra termodynamikken, hvor det betegner et mål for uorden. Selvom termodynamisk entropi og informationsteoretisk entropi har samme matematiske formulering, er det to helt forskellige begreber. Kun i visse situationer, fx hvis termodynamik anskues vha. informationsteori, kan der etableres sammenfald.

Det teoretisk tiltrækkende i matematisk informationsteori er, at det enkelte signal (oplysning, hændelse osv.) sættes i forhold til sættet af de mulige og gennem denne relation tilskrives informationsværdi, for så vidt man kan beskrive mulighedsfeltet og angive sandsynligheden for det enkelte signal. Imidlertid sætter forudsætningen, at man forud skal kunne fastlægge sættet af mulige hændelser, ret snævre grænser for teoriens gyldighed. Radikalt ny og uforudsigelig information kan ikke beskrives af teorien. Desuden beskriver teorien informationens kvantitet, ikke dens kvalitet, mening eller værdi i nogen kvalitativ forstand. Tidligere næredes der store forhåbninger til anvendelsen af informationsteori til at give forenende beskrivelser af komplekse sproglige og psykiske fænomener, men bortset fra visse begrænsede anvendelser i lingvistik og biologi er teorien i dag gledet ind som simpel grunddisciplin i datalogi og ingeniørvidenskab.

Algoritmisk informationsteori

betegner en anden matematisk teori om information, også kaldet algoritmisk kompleksitet, fordi fokus ikke er på informationens overførelse, men på, hvor kompleks den er. At noget er algoritmisk komplekst vil sige, at det ikke kan beskrives kort eller sammenpresses i en kort opskrift. Et simpelt mønster kan beskrives kort ved reglerne for dets dannelse, et komplekst kræver længere beskrivelse. I princippet kan enhver beskrivelse, der gives i et sprog, kodes som lange strenge af tal bestående af binære cifre (nuller og ettaller), bitstrenge. Ved meget lange bitstrenge kan det være af betydning at udtrykke dem kortere, fx når tekster skal lagres på bånd eller diskette, eller hvis billeder (kodet i bit) skal sendes gennem en ledning. Datakompression benyttes i megen informationsteknologi, og algoritmisk informationsteori forklarer de ultimative grænser for komprimering af bitstrenge.

Den algoritmiske informationsteori er udviklet af bl.a. den amerikanske matematiker Gregory Chaitin (f. 1947) i 1970'erne, primært som en teori om matematiske objekter: programmer eller bitstrenge. Når en bitstreng som 01101100110111100010 ser tilfældig ud i modsætning til 0101010101011010101, er det, fordi den sidste indeholder et simpelt mønster, 01 gentaget 10 gange, mens den første tilsyneladende er uden mønster. I stedet for at skrive hele sekvensen af den sidste kunne vi blot skrive "gentag '01' 10 gange".

Et tilfældigt tal er her defineret som et tal, der ikke kan beskrives ved en algoritme, der er væsentlig mindre end tallet selv. At en algoritme (svarende til et program) beskriver et tal vil sige, at en computer, der fodres med algoritmen, vil beregne tallet, udskrive det og standse. De fleste tal er ifølge denne definition tilfældige. Fx vil de fleste heltal på 20 cifre (fx 14485206745294655488) være tilfældige, som om uafhængige terningkast havde afgjort typen af hvert enkelt ciffer. En algoritme for tallet ville fx være "udskriv tallet 14485206745294655075", dvs. et sådant tal har en minimal algoritme af ca. samme længde som tallet selv. Længden af den minimale algoritme kaldes tallets kompleksitet. Et tal som 1515151515151515151515 er ikke-tilfældigt, da dets algoritme "udskriv '15' 11 gange" er kortere end tallet selv. Tilfældige tals beskrivelse kan ikke sammenpresses; deres kompleksitet er stor i forhold til kompleksiteten af lige så store, men ikke-tilfældige tal.

Intuitivt kræver det komplekse megen information at specificere. Vil man forstå kompleksitet alment ud fra Chaitins definition som usammenpresselighed af bitstrenge, er der to problemer. For det første beskriver teorien tal og formelle systemer (som kan udtrykkes med tal eller i logiske symboler) og ikke fysiske og biologiske systemer. For det andet sættes der lighedstegn mellem tilfældighed og kompleksitet. Men biologisk komplekse systemer er hverken helt tilfældige ("komplekse" i Chaitins forstand) eller helt ordnede (simple). Det har sat andre i gang med at udvikle andre teorier om kompleksitet, som inddrager disse aspekter.

Chaitin udledte i 1965 et væsentligt teorem, som angiver en af grænserne for, hvad et givet formelt system kan bevise. Som han selv formulerer det: "Hvis jeg har et 20 punds teorem, kan det ikke bevises af et 10 punds formelt system", idet pund er metafor for den algoritmiske kompleksitet af henholdsvis teoremer og det formelle system. På den baggrund kunne Chaitin udlede Gödels ufuldstændighedsteorem som et særtilfælde af almene informationsmæssige begrænsninger på formelle systemer. Gennem sit videre arbejde i 1980'erne har Chaitin bevist nye teoremer om særlig "slemme" former for uberegnelige tal.

Andre informationsrelaterede mål for kompleksitet er søgt udviklet gennem forskningen siden 1970'erne i computervidenskab, matematik og fysik, bl.a. kan fysikeren Charles H. Bennett (f. 1943) nævnes for indførelsen af begrebet logisk dybde. Noget er logisk dybt, hvis det er komplekst i den forstand, at der kræves lang tids informationsbehandling for at konstruere det. Som mål for kompleksitet bibeholder det den intuition, at det komplekse ligger mellem det totalt ordnede og det totalt tilfældige (algoritmisk kompleksitet havde det problem, at det helt tilfældige scorer højt i algoritmisk kompleksitet). Bennetts begreb er inspireret af biologien: En organisme indeholder en begrænset mængde genetisk information, men det tager lang tid ud fra denne at konstruere organismen. Det interessante er ikke så meget omfanget af den genetiske information som omfanget af den vækstproces, der skal til for at udfolde informationen og skabe den langt righoldigere struktur, som selve den flercellede organisme er. Selve begrebet logisk dybde er formelt defineret ud fra en computer (en Turingmaskine): Den logiske dybde af en struktur er den tid, målt i antal informationsbehandlinger, det tager maskinen at beregne strukturen ud fra det kortest mulige program og give strukturen som output.

Informationsbegrebet i datalogi

bruges på flere niveauer, og oftest skelnes mellem data, information (fortolkede data) og viden. Fx er ekspertsystemer et forskningsfelt, hvor man undersøger mulighederne for at repræsentere både den eksplicitte og den implicitte tavse viden hos en ekspert, fx en læge, i computersystemer, som kan støtte ekspertens beslutninger, fx ved diagnoser. Ofte har det form af en informationsbase, som kobles til en "inferensmaskine", dvs. et programmel, der repræsenterer reglerne for korrekte slutninger (fx kategorisering) på basis af indkomne informationer.

I forhold til det daglige sprogs begreb om information er det en tilsnigelse at kalde computere informationsprocesserende. Når man har et informationsbegreb, der skelner mellem data og information (fortolkede data), kan det nemlig diskuteres, i hvilken forstand en fortolkning kan ske rent maskinelt. Et eksempel på mekanisk fortolkning er en oversætter i en computer. Den er et program, som oversætter et kildeprogram skrevet i et menneskelæsbart programmeringssprog til maskinkode, så computeren kan udføre programmet. Imidlertid er denne proces rent mekanisk-algoritmisk og involverer ikke en "forståelse" hos maskinen af hensigten med programmet; enhver programmør kan bevidne, hvor let det er at lave fejl, netop fordi maskinen kun "forstår" (kan udføre) en helt korrekt maskinkode. Hvis information er data, som implicerer en menneskelig fortolkning og dermed "gør en forskel" for et subjekt, er computeren i sig selv blot en maskine, der mekanisk bearbejder de signaler, der for os repræsenterer data, slutningsregler og information. At repræsentere er da en systematisk relation mellem 1) ufortolkede tegn i maskinen, som behandles på lovmæssig vis, og 2) disse tegns fortolkning (ved input til og output fra maskinen) af en (menneskelig) bruger som betydende 3) dette og hint (da enhver informationsbaseret repræsentation kræver både tegn, fortolker og objekt). I overensstemmelse hermed kan en datamaskine defineres som et fortolket automatisk formelt system; det formelle ligger i, at alle programmer kan beskrives rent logisk formelt. Det automatiske ligger i den maskinelle signalbehandling. Det fortolkede er det, som etablerer forholdet mellem tegn og signaler i maskinen, og det, som disse tegn står for, nemlig information og viden.

Som al anden teknologi er computeren et intentionelt system; der er nedlagt menneskelige hensigter (intentioner) i det pågældende værktøj. For de intentionelle systemer, der som computeren er symbol- og informationsformidlende, gælder, at informationen enten kan være potentiel og blot eksistere som ufortolkede tegn (som teksten i en bog, der ikke læses), eller den kan være aktuelt betydende ved at indgå i en fortolkningsproces.

Informationens fysik

Informationens materielle aspekter studeres i bl.a. termodynamik, måleteori og i udforskningen af komplekse systemer. Da informationsudveksling (ud over at vedrøre betydning, mening og fortolkning) altid er en fysisk proces, vil den være underkastet naturlovene og underlagt de begrænsninger på fysisk vekselvirkning, som beskrives i termodynamik, kvantemekanik og relativitetsteori. Det spiller en fundamental rolle for den effektivitet, hvormed levende væsener og menneskeskabte maskiner vil kunne behandle information.

Selvom en (almindelig, seriel) computer er en implementering af en abstrakt Turingmaskine, kan ingen fysisk computer have et uendelig langt bånd, som den ideelle Turingmaskine har, svarende til uendelig hukommelse, eller have uendelig lang tid at regne i. Da en fysisk maskine samtidig er underlagt almindeligt slid og forældelse (rust, afmagnetisering osv.), kræves det, at de beregninger, der foretages, foregår effektivt og hurtigt og færdiggøres, før maskinen fysisk forfalder.

Information kan ifølge relativitetsteorien ikke overføres med højere hastighed end lysets. Tilsvarende tager en operation i en computer (som omfatter ændring af en informationstilstand efter overførsel af et signal) en vis tid (cyklustiden), som altså ikke kan blive vilkårlig lille. Det betyder, at der er en øverste grænse for, hvor mange instruktioner en computer kan udføre pr. sekund, og denne grænse vil være mange gange mindre end 1012 Mips, som er lig 1018 operationer pr. sekund (10-18 sekund er den tid, det tager lyset at passere et brintatom). Det er bemærkelsesværdigt, at 1018 operationer pr. sekund netop er den størrelsesorden, man antager, det ville kræve at simulere hjernen nøjagtigt og i realtid. Hjernen har ca. 1015 forbindelser mellem de ca. 1011 nerveceller; en nervecelles typiske cyklustid er ca. et millisekund, dvs. den udfører 103 operationer pr. sekund. Hjernen vil altså aldrig kunne simuleres i realtid på en seriel computer. I princippet muliggøres simulation i realtid med bygning af parallelle computere, fx neurale netværk.

Kvantemekanikken, som forklarer atomernes størrelse, sætter en grænse for, hvor megen information vi kan oplagre på en given plads, og dermed for, hvor små computere kan blive (man har spekuleret over muligheden af såkaldte kvantecomputere). Længe før vi når den grænse, vil termodynamiske forhold imidlertid begrænse forsøget på at komprimere informationsbehandlingen. Der findes en nedre grænse for den termodynamiske eller energimæssige pris for at overskrive (slette) en bit information. Hver gang en bit overskrives, udvikles der (mindst) kTln2 varme, hvor k er Boltzmanns konstant (1,3∙10-23 J/K), og T er den absolutte temperatur. Dvs. ved stuetemperatur (T = 300 K) koster det mindst 2,7∙10-21 J at slette en bit. Selvom de eksisterende computere er langt fra denne grænse, er energiforbruget pr. bit aftaget eksponentielt over de sidste 40 år, og tænkes denne tendens fremskrevet, vil grænsen være nået omkring år 2020.

Det er især den ca. 100 år lange diskussion i termodynamikken om entropiens natur og om muligheden af Maxwells dæmon (med særlige evner for informationshåndtering), der har ført til forståelsen af sammenhængen mellem den termodynamiske pris på sletning af information og computerens fysiske grænser. Afgørende for diskussionen var den ungarske fysiker Leo Szilard, som i 1929 påviste den fysiske umulighed af Maxwells dæmon, hvis man går ud fra, at informationsoverførelse kræver en vis mindste energi, og den amerikanske fysiker Rolf Landauer (1927-99), som i 1960'erne videreførte og modificerede Szilards argumenter. Information er altså ikke energimæssigt gratis.

Biologisk information

findes som et basalt træk ved levende væsener, og liv kunne ikke have udviklet sig på Jorden uden sideløbende udvikling af biologiske former for hukommelse, genkendelse og anden informationshåndtering.

Krystallers spontane dannelse af orden og andre former for selvorganisation findes i den fysiske verden, hvor der i et lokalt system er gennemstrømning af energi og spredning af varme og entropi til omgivelserne. Høj grad af orden svarer til lav entropi og muliggør, at en iagttager kan have høj grad af information om systemets fysiske tilstand. Dannelse af biologisk organisation kræver ikke blot et åbent selvorganiserende systems evne til at opretholde orden (lav entropi) i systemet selv. Biologisk liv kræver et særligt stofskifte, karakteriseret ved et stort netværk af specifikt virkende stoffer med hver sin rolle (proteiner og andre makromolekyler). Disse dannes ikke spontant, men er direkte eller indirekte kodet i organismens arvemateriale, genomet, hvis genetiske kode indeholder information om rækkefølgen af aminosyre-byggesten i cellernes proteiner. Biologisk organisation muliggør, at en iagttager kan have information om dette højere ordensaspekt af systemet, dets biologiske tilstand.

Selv for en meget simpel encellet organisme er biologisk information (forskelle, der gør en forskel for organismen) basal i tre henseender. Cellemembranen definerer en primær forskel på det ydre og det indre, den holder sammen på stofskiftets dele og er en grundlæggende betingelse for forskellen på liv og død. Genomet rummer en fortegnelse (generne) over de tilladte proteiner ud af en kombinatorisk set gigantisk mængde mulige i cellen og sikrer dermed den biologiske specificitet i stofskiftets enkelte processer. Da gener nedarves og ændres gennem evolution, udgør de artens biologiske hukommelse med information om de molekyler, der har vist sig duelige i artens hidtidige miljø. Makromolekylernes overflader har en særlig tredimensional form (indirekte bestemt af den genetiske sekvensinformation) der sikrer korrekt molekylær genkendelse. Et enzym genkender et passende substrat, og et protein på en cellemembran genkender bestemte stoffer i miljøet, som proteinet kan vekselvirke med, og cellen kan optage. Molekylær genkendelse er afgørende for stofskifteprocesser i cellen og på dens overflade. Immunsystemet virker på basis af molekylær genkendelse på overfladen af immunsystemets celler.

Med genetisk information tænkes som regel på sekvensinformationen i gener på DNA-molekylet. Sekvens henviser her til rækkefølgen af de baser, genet består af, og som tre og tre koder for de enkelte aminosyrer i et protein. Kun dele af DNA i eukaryote celler er gener, der koder for protein. Noget af sekvensinformationen på DNA-niveau i et gen (introns) skæres ud og nedbrydes før dannelse af mRNA, som bearbejdes videre under proteinsyntesen. Der findes også sekvenser med regulatorisk funktion, som medvirker til at aktivere eller hæmme aflæsningen af DNA. Molekylærbiologien har afdækket et stort antal mekanismer i cellen til bearbejdning af den genetiske information. Det er en udbredt fejlslutning, at fordi et fænotypisk træk er "genetisk bestemt" (kausalt betinget af genetisk information), er det direkte forårsaget af eller kodet i generne. Man fokuserer nu på hele netværket af komplekse samspil mellem genetiske, cellulære og miljømæssige faktorer.

Når der i forbindelse med den enkelte celles biologiske information tales om genkendelse og kodning, er det endnu på et ikke-kognitivt niveau, hvor "genkendelse" er en metafor for rent biokemiske processer. Ikke desto mindre har de funktionel betydning for organismen og giver i den forstand biologisk mening. Der finder en biokemisk fortolkning af cellens biologiske information sted under stofskifte, vækst og udvikling, og i den forstand er informationsprocesser langt fra noget, der er forbeholdt menneskelige fortolkere (se biosemiotik).

Biologisk information findes også på højere niveauer, neuralt og kognitivt, som involverer mere komplekse former for fortolkning og repræsentation af det ydre miljø. Disse processer er genstand for adfærdsforskningens forskellige grene og for neurobiologi, hjerneforskning, perceptionspsykologi og kognitionsforskning.

Informationens filosofi

Da informationsbegrebet i sig selv spænder vidt og har forbindelser til begreber som viden og erkendelse, er en række klassiske filosofiske problemer blevet reformuleret i lyset af informationsteknologiens og informationsvidenskabernes udvikling.

Naturfilosofisk har det været diskuteret, om information er et basalt ontologisk træk ved naturen på linje med tid, rum, stof, energi og kraft, eller om information altid må bero på en menneskelig iagttager, hvis sansninger eller målinger skaber information i form af fortolkede data.

Ifølge én tradition, der går tilbage til Kant, må vi skelne mellem, hvad naturen er i sig selv, og hvad den er for os som et led i erkendelsens arbejde. Ud fra dette synspunkt bør man altid vare sig for at projicere forstandens kategorier ud i naturen selv, og meget taler for, at information som fænomen altid er et moment af den menneskelige erkendelses praksis. I så fald rummer naturen ikke information i sig selv, den bliver kun til for et subjekt, der kan skabe og forholde sig til information. At tale om information i naturen, eller at hævde, at maskiner kan være intelligente og forstå meningen med deres "egen" informationsbehandling, er at hypostasere begrebet information, dvs. fejlagtigt at opfatte et abstrakt begreb som en selvstændig realitet.

Ifølge en anden tradition, som går tilbage til Aristoteles og føres videre med Darwin, er den menneskelige erkendelse selv indfældet i naturen og rummer mulighed for at genopdage de former, naturen frembringer i erkendelsen selv. Her indrømmes det, at vi frembringer information ved at udforske, iagttage, måle osv., men det forhindrer ikke naturen i også at rumme information. Biologisk information er dannet i en lang evolutionsproces, og informationen er dermed iboende naturen. Dyr og mennesker er som naturvæsener indlejret i processer, der både beror på stof, energi og information. Nogle går så vidt som til at hævde, at information er et træk ved kosmos, og at naturlovene som generelle formprincipper for materien er udtryk for det informationelle aspekt ved Universet. Andre nøjes med at datere opkomsten af information i naturen til de første levende celler, der dannede en genetisk kode og dermed skabte en primitiv dualitet mellem det informationsmæssige og det rent fysiske. Således kan den klassiske dualisme mellem ånd og materie erstattes af en mere blød og naturalistisk dualisme mellem information og stof.

Man har forsøgt at overvinde modsætningen mellem disse standpunkter, bl.a. inden for en pragmatisk tradition gående tilbage til filosoffen Charles S. Peirce. Her ses information som en tegnproces, hvor tegn forstås både kritisk og naturalistisk. Selvom ethvert tegn er information ved at repræsentere noget (objektet) for nogen eller noget (interpretanten), findes der både de specifikt menneskelige og samfundsbestemte tegn (fx det menneskelige sprog) og de tegn, der er naturens egne.

Bevidsthedsfilosofisk har man diskuteret, om informationsbegrebet kunne inspirere til nye løsninger på sjæl/legeme-problemet. En tiltrækkende mulighed har været at opfatte bevidstheden som et program, der bearbejder inddata (information fra sanserne) under hensyn til oplagret viden og omsætter det i uddata som information til musklerne, herunder tale- og skrivemusklerne. Ifølge denne tese, som kaldes bevidsthedsfilosofisk funktionalisme og oprindelig blev foreslået af filosoffen Hilary Putnam, bliver den mentale information i vor psyke en slags software, som er realiseret i hjernen, der udgør programmets hardware. Det afgørende bliver ikke, om en computers hardware ligner vores hjerne på det biologiske plan, hvad den ikke gør, men at dens software, programmerne, kan udføre nogle af de samme informationsbehandlende funktioner (ræsonnere, beregne, huske, percipere, kategorisere), som vi kan, og som derfor hævdes at bero på tilsvarende programmer. Fx skulle vores sprogevne bero på eksistensen af et program i hjernen, et tavst tankesprog, og det skulle være muligt at finde et beskrivelsesniveau, som indfanger de samme funktioner i informationsbehandlingen ved tale, hvad enten den sker i hjernen eller i et tilsvarende program, som kunne styre en talemaskine. I de seneste år er den bevidsthedsfilosofiske funktionalisme løbet ind i problemer, og tesen om, at alt i bevidstheden (herunder kvalitative oplevelser) kan forstås udtømmende som informationsbehandling, har færre tilhængere i dag.

Som med forholdet til natur og bevidsthed har man diskuteret, om informationsbegrebet kunne hjælpe med til at afklare naturen af den menneskelige intentionalitet forstået som bevidsthedens rettethed mod noget; det at man ser en skikkelse ikke som en samling sanseatomer, men ser den som noget bestemt, en slagter, en cyklist, eller man ser efter en fraværende kiosk osv. Er information et aspekt ved naturprocesser, er det nærliggende, at intentionalitet må kunne "naturaliseres" og forklares på samme måde. Vanskeligheden har her været, at vi i så høj grad allerede selv er intentionelle tolkende væsener, som læser betydning ind i verden, og som ikke uden videre kan træde uden for os selv og beskrive intentionaliteten i så naturalistiske termer (af informationsbehandling m.m.), at det har kunnet tilfredsstille de kriterier for objektiv forklaring, man i første omgang søgte.

Samfundsfilosofisk har informationsbegrebet spillet en rolle for undersøgelsen af den samfundsmæssige rationalitet og menneskets forhold til teknologi og udvikling. Videnskabelige og ideologiske opfattelser af viden (og videnskabens rolle som grundlag for økonomisk og social vækst) har ændret sig med overgangen fra industrisamfund til informationssamfund. Mennesket opfattes i stigende grad som et væsen, der opsuger information fra omverdenen (og dens informationsnetværk), behandler den og handler på basis af den. Mennesket er ikke fuldt rationelt, forstået sådan at det selv kan gennemskue alle de kognitive og emotionelle "kalkyler", der indgår i dets egne beslutninger på basis af (delvis ubevidste) informationsprocesser; det udelukker ikke, at de rationelt kan blotlægges videnskabeligt, men det sætter spørgsmålstegn ved rationalitetens natur.

Forskellige modeller for sociokulturel evolution har lagt vægt på de processer, hvorunder information og viden videregives fra generation til generation, og man har som analogi anvendt biologisk inspirerede evolutionsmodeller. Imidlertid er sociokulturel evolution lamarckistisk (i modsætning til biologisk darwinistisk udvikling), da erhvervet viden videregives kulturelt via socialisering og symbolsk information, og variation skabes gennem opfindelse og opdagelser. I disse modeller er disanalogierne til biologien væsentligere, for information i sociale systemer er noget ganske andet end genetisk information i den biologiske evolution.

Endelig har man diskuteret, om den øgede tilgængelighed af information kræver en omstrukturering af samfundets lære- og innovationsprocesser. Med samfundsfilosoffen Jean-François Lyotards ord er databankerne "morgendagens encyklopædi. De overgår den enkelte brugers kapacitet. De er naturen for det postmoderne menneske".

Sprogvidenskab

Inden for sprogvidenskaben er information de oplysninger, som formidles gennem sproget. En sætning som min nabo er syg indeholder bl.a. informationerne (i1) "jeg har en nabo", (i2) "han er syg" og muligvis også (i3) "han kan måske ikke komme med til festen".

Der findes mange typer information, fx ny eller gammel, væsentlig eller uvæsentlig, mere eller mindre kendt. Information kan præsenteres direkte eller indirekte eller blot vises på forskellig måde, som når man udtrykker sin smerte ved at sige av! I eksemplet min nabo er syg er i1 kendt, mindre væsentlig og nævnt indirekte, mens i2 er ny og væsentlig information, der er sagt direkte. Også i3 er sagt indirekte, men i modsætning til i1, som den talende ikke senere kan løbe fra, er i3 snarere en betydning, tilhøreren forestiller sig. i1, i2 og i3 betegner således hhv. præsupposition, det direkte sagte og implikatur.

Sprogbrugeren kan markere og strukturere informationen i en sætning vha. ordvalg, grammatisk struktur, ordstilling og betoning. I en sætning som huset ligger jo langt væk viser ordet jo, at hele indholdet forventes kendt af samtalepartnerne på forhånd, og brugen af bestemt form viser, at der er tale om et kendt hus. Når sætningen ham elsker Karen giver en anden information end sætningen Karen elsker ham, skyldes det ordstillingen, der hænger sammen med tema-rema, idet ham er tema og Karen rema i den første sætning, mens det forholder sig omvendt i den anden. Endelig er informationen i sætningen Peter spiser også kød forskellig, alt efter om der lægges tryk og dermed sættes fokusPeter, også eller kød.

Information struktureres både på sætnings- og tekstniveau, og der er en snæver sammenhæng mellem de to niveauer. De førnævnte begreber har navnlig betydning for informationsstruktureringen på sætningsniveau, mens det på tekstniveau især drejer sig om emnestrukturering. Tekster med høj grad af direkte sagt, objektiv information kaldes informative tekster og har særlige sproglige karakteristika, fx rig brug af beskrivende adjektiver og stedsadverbialer.

Information er et nøglebegreb i moderne sprogvidenskab, hvor termen har både tekniske og almene anvendelser. Forskellige sprogvidenskabelige skoler anvender begrebet forskelligt, og oftest er det ikke veldefineret. I funktionel lingvistik anvendes begrebet ret snævert, idet informationsstruktur primært er knyttet til de sproglige signaler, som angiver, hvilken information der er væsentlig og ny. I kognitiv lingvistik benyttes information i den brede betydning, som er beskrevet ovenfor. Endelig findes en almen anvendelse, hvori termen kun benyttes om direkte sagt information. Se lingvistik og sprog.

Økonomi

Information. Datas information afhænger af deres repræsentation. De to grafer viser de samme data (inflationen i Danmark i pct. 1949-95), men den forskellige skalering af y-aksen bevirker, at betragteren på den øverste graf får information om en kraftigt svingende inflation og på den nederste om en kun lidt svingende inflation.

Inden for økonomisk teori er information en samlebetegnelse for den viden, der er af betydning for økonomiske beslutninger. Markedsmekanismens effektivitet som økonomisk system udspringer af dens beskedne krav til information; for at træffe hensigtsmæssige beslutninger er det kun nødvendigt at kende markedspriserne og ikke faktorerne bag de givne priser.

Der er imidlertid en række grunde til, at prissystemet alene ikke perfekt løser problemet med informationssamling og formidling mellem de økonomiske beslutningstagere. Information har egenskaber i lighed med et såkaldt offentligt gode, dvs. at brug af information ikke udelukker andre fra at bruge den samme information, og som følge heraf efterlader markedssystemet ofte et for lille incitament til informationsanskaffelse. Påtager man sig omkostninger for at fremskaffe ny information, vil man ikke nødvendigvis kunne høste den fulde gevinst heraf, såfremt informationen via markedet spredes gratis til andre. Dette er et argument for offentlig intervention i relation til informationsanskaffelse ved bl.a. beskyttelse af informationsindsamleren (patentlovgivning) og subsidiering af informationsanskaffelse (forskning og udvikling). Manglende information betyder, at økonomiske beslutninger må træffes under usikkerhed, hvilket i sig selv kan påvirke beslutningerne og endvidere give et afledt transaktionsbehov i form af forsikring. Informationsmangel kan også påvirke de mulige transaktioner og kontrakter.

Et særligt problem er situationer med asymmetrisk information mellem to transaktionsparter. Fx opstår en type af problemer, når den ene part ikke har mulighed for at observere de handlinger, den anden udfører (moral hazard), fx at en arbejdsgiver ikke kan observere en arbejders effektivitet; en anden type er knyttet til situationer med ikke-observerbare karakteristika (adverse selection), fx at et livsforsikringsselskab ikke kender forsikringstagernes helbred. Problemerne ved manglende information kan forstærkes af, at besiddelse af privat information, der ikke er kendt af alle, kan give en markedsstyrke. De strategiske aspekter af manglende information er behandlet i litteratur om spilteori.

Vind tre bøger i Den Store Danskes quiz.

Gå til quiz.

 

Find bøger

   
   Find Lydbøger
hos Storytel
   Find bøger
bogpriser.dk
   Studiebøger
pensum.dk
   Læs e-bøger
hos Ready

 

© Dette billede må du ...

Information. Diagram over det generelle kommunikationssystem. Systemet beskriver, hvorledes information formidles fra kilde til destination.

© Dette billede må du ...

Information. Datas information afhænger af deres repræsentation. De to grafer viser de samme data (inflationen i Danmark i pct. 1949-95), men den forskellige skalering af y-aksen bevirker, at betragteren på den øverste graf får information om en kraftigt svingende inflation og på den nederste om en kun lidt svingende inflation.

Viser 2 af 2 billeder

Filer

FilTilføjet af 
[+362617.801.svg (12.43 kB)

Information. Datas information afhænger af deres repræsentation. De to grafer viser de samme data (inflationen i Danmark i pct. 1949-95), men den forskellige skalering af y-aksen bevirker, at betragteren på den øverste graf får information om en kraftigt svingende inflation og på den nederste om en kun lidt svingende inflation.

Admin

05/02/2009

[+362618.801.svg (2.85 kB)

Information. Diagram over det generelle kommunikationssystem. Systemet beskriver, hvorledes information formidles fra kilde til destination.

Admin

05/02/2009

Nyhedsbrev

Om artiklen

Seneste 3 forfattere
Redaktionen
26/02/2014
PStL
20/03/2010
Uffe Rasmussen
10/09/2009
Ekspert
Brahde
Oprindelige forfattere
CEmm
31/01/2009
HNoe
31/01/2009
TMA
31/01/2009

© Gyldendal 2009-2014 - Powered by MindTouch Deki