Digital humaniora: Eldre enn verdensveven, fremdeles i startfasen


Author:

Author ImageKnut Melvær

Det har vært en vanvittig utvikling innenfor digital teknologi og kultur de siste årene, dessverre henger vi i humaniora litt etter. Her er tre grunner til hvorfor.

Forskningsformidling, særlig i ny-etablerte avisblogger, kan være mer enn formidling av sakprosa og forskningsresultater. Spesielt for humanistisk forskning er det en gylden mulighet til å invitere folk inn i de mange delene forskningen består av. Forskning og vitenskap er så utrolig mye mer enn forskningsrapporter og frasen «forskning viser…» som man finner minst 51 859 ganger (per 16/03/15) i norsk media siden 1959. Det har vært en vitenskapssosiologisk kjennsgjerning at forskning preges av det meste som mennesker i en jobb preges av (les: penger, møter og motivasjoner), og av alle de sosiale prosessene som rammes inn av Universitetet som en offentlig institusjon (les: lovverk, ledelse, penger, møter og motivasjoner). Det er nesten trivielt å påpeke det, men det virker de som med brask og bram hevder å stå for et «vitenskapelig verdenssyn» ofte glemmer det. Det er ingen tvil om at universitetet er en ganske særegen plass som gjør særegne ting, men det må stadig knuses egg for å lage forskningspølse. Det er derfor en sunn innstilling til vitenskap og forskning å smøre seg med litt tålmodighet for å se hva det er som henger på veggen.

Derfor gir jeg meg selv lov til å lufte noen tanker om et akademisk landskap som er i emning, og som kommer til å prege humaniora i årene fremover mer og mer: Det digitale humaniora. Eller digital humaniora. Vi har ikke helt bestemt oss enda. Så, foreløpig, digital\e humaniora.

En gang var universitetene i tet når det kom til bruk av datamaskiner og digital teknologi. Humaniora var med også. Allerede i 1949 gikk den italienske jesuitt-presten Robert Busa i gang med planleggingen av Index Thomisticus, som skulle gjøre det mulig å søke i det massive tekstkorpuset til Thomas Aquinas. Dette minner oss på at relasjonen mellom religion og vitenskap (ja, vi driver med vitenskap i humaniora også) er tettere enn mange liker å tro. Dette var en av de første tekstsamlingene som ble digitalisert for forskningsøyemed, og siden dette har det mildt sagt tatt av. Med digitaliseringen av verdens kulturarv har vi forskere fått uante muligheter, ikke bare til å spare tid, men analysere og trekke koblinger mellom tekster, bilder og annen data som tidligere ikke var praktisk mulig. Vi kan trene datamaskiner til å «forstå» språk og gjøre mye av det metodologiske drittarbeidet for oss. I dag går de fleste med verdensveven i lomma, og utviklingen innenfor digitale verktøy og formidlingsplatformer gir stadig nye formidlingsmuligheter.

At du nå leser de digitale pennestrøkene til en forskerspire på en blogg kronet av logoen til en 147 år gammel avis sier også noe om utviklingene som har skjedd de siste årene. Men! Vi har fremdeles et lite stykke å gå.

Som sagt, det er ikke noe nytt å ta i bruk nyvinninger innenfor digital teknologi i humanistisk forskning. De siste årene har det imidlertid etablert seg en akademisk selvforståelse om i utlandet har fått navnet Digital humanities. Selvforståelsen har sakte, men sikkert etablert seg i Norge også. Den har kanskje satt seg dypest ved Universitetet i Oslo hvor man i dag finner et forskningsnettverk for digital humaniora. Når det er sagt, ved Universitetet i Bergen har man i mange år hatt et veldig spennende og produktivt fagmiljø for digital kultur.

Interessen for de mulighetene digital teknologi gir oss, både som forskningsverktøy og som forskningsfelt har en tendens til å krysse disiplinære grenser. Selv er jeg religionsviter som på sett og vis snublet inn i dette fordi jeg holder på med et prosjekt hvor jeg ønsker å få en mest mulig komplett oversikt over hvordan spiritualitetsbegrepet har blitt brukt i Norge siden århundreskiftet i 1900. Noe som satt meg i kontakt med språkforskere, spesialbibliotekarer, medievitere og folk på informatikk.

Nettopp fordi mye av vår tekstlige kulturarv har blitt digitalisert av Nasjonalbiblioteketet, og er tilgjengelig gjennom avisdatabaser som Atekst hadde jeg i starten av prosjektperioden store forhåpninger om å pløye gjennom et massivt datamateriale med smarte algoritmer og hendige dataprogrammer. I løpet av de snart fire årene jeg har vært stipendiat, har det også kommet til mange nye kilder og verktøy som stadig gjør jobben litt mer overkommelig. Det har imidlertid ikke vært en tur på kaker; som seg hør og bør i doktorgradsprosjekter har jeg møtt på mange utfordringer hvor det er lett å se potensiale, men hvor i praksis ikke har kommet særlig langt. Vi er milevis unna det digitale utopia som det av og til reklameres for i det digitale humaniora. Her er tre utfordringer vi er nødt til å møte:

1. Digitale kilder med fysiske begrensninger. Selv om Nasjonalbiblioteket gjør en formidabel digitaliserings-innsats, må forskere fremdeles fysisk dra til Oslo og bruke Nasjonalbibliotekets egne «klienter» for å få tilgang på hele arkivet. Greit nok om man er interessert i et lite antall kilder, men for den type oversiktsprosjekter som man gjerne holder på med i digital humaniora, blir det forholdvis ubrukelig. Det er hovedsakelig jussen og opphavsrettighetene som legger begrensningene her, og Nasjonalbiblioteket har i det stille begynt å utvikle løsninger som gir oss en viss tilgang på interessant data. Vi trenger bedre tilgang til datamaterialet for forskingsøyemed. Flere forskere bør engasjere seg i det arbeidet som skjer ved mange av bibliotekene og etterlyse at det som er utenfor opphavsrettighetene er tilgjengelig som åpne data.

2. Akademikere kan ikke design. Design er ikke hvordan ting ser ut, det er hvordan noe virker. Det er megetsiende at mennesker som lever av å produsere tekst fremdeles sier seg fornøyd med Microsoft Word (jada, kommentarfeltet er nedenfor, men les ferdig først). Selv om det finnes mange prisverdige initativ der ute, hvor akademikere har lagt en stor innsats i verktøy som skal gjøre forskningsverktøy mer tilgjengelig, er veien inn i digitale humaniora svært krokkede og frusterende. Du må fremdeles lære deg Python og R. Du må i tillegg slåss med ustabil programvare som aldri oppdateres, unicode-problemer og mye esoterisk terminologi. Er du heldig har kanskje noen laget et grafisk grensesnitt til verktøyet, men det er stort sett milevis unna den standarden man forventer etter år med mobiltilpasset design og de appene man bruker når man utsetter jobbing med avhandlinger. Man kan kanskje rettferdiggjøre dette med manglende midler og hjerneflukt fra universitetene, men det gjør feltet utilgjengelig for mange av de som kunne bidratt til det. Det går ikke bare på bekostning av forskningen, men også rekruttering av forskere som synes terskelen blir for stor. Terskelen bør ikke være å måtte installere python-moduler i terminal.app for å kjøre en analyse av ordfrekvenser i et tekstkorpus, eller å lære seg en rar versjon av regulære utrykk for å gjøre et meningsfult søk i kildene.

Digital\e humaniora i praksis. Her er Python-kode for å hente ut ordfrekvenser.

Digital\e humaniora i praksis. Her er Python-kode for å hente ut ordfrekvenser.

3. Vi er fremdeles litt for opptatt av institusjonelle grenser og fagdisiplinære identiteter. I Oslo har de skikkelig interessante seminarer og foredrag om digital humaniora, men det strømmes ikke, legges heller ikke som podkast, og det er — så vidt jeg kan se — ingen som blogger om det heller. Jeg tror ikke om vi er særlig bedre i Bergen heller. I løpet av prosjektperioden har det blitt klart for meg at ved UiB har vi minst tre fagmiljø ved ulike fakultet og institusjoner hvor forskere med interesse for forskning i norske digitaliserte avistekster bruker mye av det samme materialet, man utvikler men ikke samarbeider særlig sammen for å forbedre verktøyene. Selv om man finner en del individuelle relasjoner på tverrs av disse grensene, er det mye institusjonell friksjon som motvirker flere samarbeid (les: møter, lovverk, ledelse, penger). Det er mange interessante metoder som har blitt utviklet innenfor språkforskning og medievitenskap som kan ha stor nytte i andre fag, men forblir uttilgjengelige grunnet mye stammespråk og obskur terminologi. Digital\e humaniora trenger flere brobyggere (som for eksempel dette) som klarer å åpne feltet, ikke bare opp for hverandre, men også mot allmennheten.

Når jeg nå har inntatt rollen som en digital surpomp føler jeg behovet for å konkludere innlegget på en litt mer positiv akkord. Frustasjonen oppstår fordi man ser at mulighetene for innsikt i hvordan folk har tenkt, hvordan ulike deler av kultur har blitt representert og hvordan språket har formet virkeligheten, er enorme når vi kan få drahjelp av datateknologi og de nye sosial platformene vi har fått de siste årene. Til og med denne «troen» på at såkalt stor data (Big Data) skal revolusjonere forskning, kommersielle og kulturelle arenaer, er et spennende tema for forskning. Det er fremdeles et stort uforløst potensiale, men det betyr også at det er god plass for mye pionérarbeid og nytenkning. Det er kanskje det som gjør digital\e humaniora noe av det mest spennende som skjer i akademia nå.

8 thoughts on “Digital humaniora: Eldre enn verdensveven, fremdeles i startfasen

  1. Author ImageKristian Amlie

    For streaming har jeg i dag testet Meerkat. Verdt å sjekke ut for digital humanoria for formidling?

    1. Author ImageKnut Melvær

      Om ikke annet er Meerkat et interessant kulturelt fenomen, ikke fordi teknologien nødvendigvis er så ny, men fordi det har blitt så sømløs. Nok et eksempel på hvordan det kommersielle markedet trumfer det akademiske med syvmilstøvler. (Du skal visst hvor mye styr det er å få streamet noe på universitetet). Kommer Meerkat etterhvert til å føre til diskusjoner om hva det er greit å streame, og hvor? Kommer det til å flytte holdningene og forventningene våre til hva som er privat og offentlig sfære?

      Det hadde vært litt interessant å prøve ut Meerkat som «formidling» ved å streame fra kontoret når man sitter og jobber med neste artikkel eller undervisningsøkt. Nå virker det ikke som at studenter er så veldig mye på twitter, men man kan for eksempel se for seg at man hadde brukt det som en slags måte å «vrenge kontoret» sitt på. Gjøre en Meerkat stream hvor man svarer på faglige spørsmål som studenter og andre stiller på twitter. Så ja, why not?

  2. Author ImageDisqusor

    Design er ikke hvordan ting ser ut ? At en såkalt klesdesignrr er en skredder er slik det er, men internasjonalt..hva da med en industrial designer.

    1. Author ImageAnders Hagelin Abrahamsen

      I digital sammenheng er hvordan ting virker ofte viktigere enn hvordan de ser ut, men det skader ikke at det ser bra ut heller da.

    2. Author ImageKnut Melvær

      «Most people make the mistake of thinking design is what it looks like. That’s not what we think design is. It’s not just what it looks like and feels like. Design is how it works.»

      Nå er det kanskje litt risikabelt å komme trekkende med Steve Jobs-sitater i et kommentarfelt på nettet, men dette credoet finner du stort sett igjen hos folk som jobber med (digital teknologi). En industriell designer (som for eksempel Jony Ive) vil i høyeste grad (forhåpentligvis) tenke på hvordan en ting virker i lys av hvordan den ser ut og vice versa.

  3. Author ImageKjetil Birkeland Moe

    Har en viss forståelse for at det å drodle med diverse skript og programvare ikke er det man ønsker å bruke tiden sin på som vitenskapsmann, uavhengig av hvilket felt man jobber innenfor. Jeg kan bomme grovt her, men problemene du nevner omkring Python, R, Unicode og ustabil programvare, kan tyde på at du jobber fra et ganske så vanlig operativsystem som Windows eller Mac (profilbildet ditt antyder i alle fall dette) hvor programvare i utgangspunktet ikke er laget eller designet for disse systemene. Da er det gjerne svært små miljøer som ender opp med å tilpasse og vedlikeholde programsnuttene.

    Så min forhåpentligvis ikke altfor kontroversielle anbefaling vil være å bruke noe så sprøtt som et annet operativsystem, typisk Linuxbasert, hvor utvalget av programmer er større og som regel mer oppdatert uten sære “hacks”. Det som er fint for deg er at dette kan du kjøre som en Virtuell PC innifra Mac OS’et ditt, altså ikke installere som en egen partisjon, og da ved å bruke Virtualbox eller lignende. Det er nok en viss terskel å komme i gang med “Virtuelle pc’er” også, men her finnes det masse dokumentasjon “på nettet”. Ubuntu og Linux Mint er kanskje de mest kjente navnene, selv har jeg brukt Fedora i mange år.

    Erfaringsmessig var dette i alle fall en enklere løsning for å blant annet skrive ålreite LaTeX-dokumenter og få dem tilpasset som ønsket, enn å sitte i noe Windows-basert, som var mitt alternativ den gang.

    Men rent logisk sett så “må” andre folk i din situasjon ha vært ute for lignende utfordringer allerede. Er det ingen andre forskningsmiljøer rundtom i verden som har noen “best practice” å komme med?

    1. Author ImageKnut Melvær

      Nå ér OS X et *nix-basert system som gjør at man kan dra på mange (de fleste?) av fordelene som man får på en Linux-distro, og i de siste årene har ting blitt bedre og enklere med ting som brew (les apt-get), virtualenv og mange andre hendige programmer som kan kjøres fra kommandolinja. På tekstbehandlingsfronten har det skjedd intet mindre en revolusjon med markdown (som egentlig ikke er noe teknologisk revolusjonerende i det hele tatt), som med enkle programmer (både GUI og kommandolinje-programmer) lar seg konvertere til LaTex, docx, HTML eller hva enn format du foretrekker. Tingen er, dette er ikke først og fremst et software-problem, men et akademisk infrastruktur problem. (Dessuten, Unicode-problemet kommer av kombinasjonen Python2 og rare tekst-fil eksporter fra diverse nettbaserte arkiv). Jeg tror til og med ting har blitt vesentlig enklere på Windows også, selv om det er en verden jeg sjelden rører nå fortiden.

      Jeg har egentlig ikke noe problem med at man må lære seg Python eller R heller. Selv om det er en terskel der – spesielt for nybegynnere, så ér jo den kompetansen gull verdt å ha. Akkurat som statistikk, eller feltarbeid. Og jeg aner at en del av problemet ligger i at forskningsmiljøene mekker hver sin «best practice» og oppfyller klisjéen som xkcd så fint oppsummerer her. https://xkcd.com/927/

Comments are closed.