Home Onderwerpen Zoek Over ons Doneer Contact

De toekomst van het semantisch web English Version

dr. Albert Benschop
Universiteit van Amsterdam

Netwerk van betekenisvolle gegevens

Nieuwe uitwisselingstalen: XML, RDF en DAML

Typologie van verbindingen

Domeinspecifieke ontologieën

Gemeenschappelijke en gedeeltelijk begrip

Moeizaam zoeken

Intelligente Agents

Elektronische publiceeromgeving: EPO

    Referenties

Verwante teksten
button Geschiedenis van het internet
button Hypertekst Revolutie
button Zoeken naar Kwaliteit
button Interactief Publiceren
button KennisManagement in een Semantisch Web

Een web van betekenisvolle gegevens

"Het web werd ontworpen als een informatieruimte, met het doel dat deze niet alleen nuttig zou zijn voor mens-tot-mens communicatie, maar ook dat machines in staat zouden zijn om te participeren en te helpen. Een van de belangrijkste obstakels hiervoor was het feit dat de meeste informatie op het web ontworpen is voor menselijke consumptie. Zelfs wanneer die informatie was afgeleid van een databank met goed gedefinieerde betekenissen voor zijn kolommen (...) is de structuur van de gegevens niet evident voor een robot die door het web bladert. (...) Het semantische web ontwikkelt talen waarmee informatie uitgedrukt kan worden in een vorm die door machines verwerkt kan worden" [Tim Berners-Lee, Semantic Web Road Map, sept. 1998]

 
Het World Wide Web werd ontworpen voor menselijke gebruik. Hoewel alles op het WWW door computers gelezen kan worden, kan de informatie zelf niet door computers begrepen worden. Gezien de omvang en groeitempo van het WWW heeft de ontwikkeling van automatische software en intelligente zoek- en onsluitingsinstrumenten een hoge prioriteit voor veel wetenschappelijke en commerciële instellingen. Er worden diverse nieuwe technologieën ontwikkeld om informatie van diverse databronnen te ontcijferen en om te zetten in betekenisvolle resultaten. Daarbij gaat het met name om uitwisselingstalen waarmee webdocumenten en berichten van extra informatie (speciale markeringen met metadata) worden voorzien die voor mens en computer een eenduidige betekenis heeft.

Een brede visie
"Het semantisch web is een visie: het idee is dat de gegevens op het web zodanig gedefinieerd en gelinkt worden dat zij door machines niet alleen gebruikt kunnen worden voor presentatie-doeleinden, maar ook voor automatisering, integratie en hergebruik van gegevens via diverse toepassingen. Het belooft een radikale verbetering van ons vermogen om informatie te vinden, sorteren en klassificeren, taken die het merendeel van de tijd in beslag nemen die we on- en off-line besteden" [W3C].
De eerste generatie van het web werd gekenmerkt door HTML pagina's en menselijke verwerking van informatie. We staan nu op de drempel van een tweede webgeneratie, het 'semantisch web', welke gericht is op informatie die door computers verwerkt kan worden. Het semantisch web is geen volledig nieuw of apart web, maar een uitbreiding van het huidige web. Het is een web waarin informatie een duidelijk gedefinieerde betekenis krijgt, waardoor computers en mensen in staat worden gesteld om met elkaar samen te werken. Het semantisch web is een netwerk van betekenisvolle gegevens dat op een zodanig wijze is gestructureerd dat een computerprogramma over voldoende informatie over de gegevens beschikt om die te kunnen verwerken.

Begrijpende computer. Created by Miguel Salmeron. De fundamentele voorwaarde voor het semantisch web kan worden samengevat in de leuze: "maak inhoud verstaanbaar voor computers". Inhoud wordt pas verstaanbaar voor computers wanneer de formele betekenis daarvan verbonden is aan een formele beschrijving van zichzelf (dus met metadata). Het overgrote deel van de inhoud van het WWW zoals we dat vandaag de dag kennen is ontworpen om door mensen gelezen te worden, niet om door computerprogramma's op een betekenisvolle manier gemanipuleerd te worden [Berners-Lee/Hendler/Lassila 2001]. Het semantische web moet structuur aanbrengen in de betekenisvolle inhoud van webpagina's. Hierdoor ontstaat een omgeving waarin software agents zich van pagina naar pagina kunnen verplaatsen om geavanceerde taken voor gebruikers uit te voeren.

Middels HTML —de programmeertaal voor het opmaken van de inhoud van een pagina hypertext— kunnen computers hypertekstuele documenten weergeven en uitwisselen. HTML is een opmaak- of presentatietaal waarmee verbindingen ('links') gelegd kunnen worden tussen of binnen hypertekstueel gepresenteerde documenten. In HTML kan slechts een beperkt aantal semantische gegevens over het hyperdocument worden opgenomen in de vorm van metadata: titel, trefwoorden, auteur, taal, samenhang van webpagina's, juridische informatie (auteursrechten en distributierechten; privacybeleid), classificatienummers, goedkeuringen (zoals Pics-labels), uitgevende instantie, gebruikte software, datum van aanmaak en datum waarop het document voor het laatst is aangepast.

HTML is de meest succesvolle elektronische publiceertaal die ooit werd uitgevonden. Toch is deze taal nogal oppervlakkig. HTML beschrijft slechts hoe een webbrowser de tekst, plaatjes en knoppen op een pagina moet ordenen. De huidige markeertaal HTML is wel is staat om documenten aan elkaar te koppelen, maar niet om conceptuele gegevens aan elkaar te verbinden. Omdat we op het web te maken hebben met grote hoeveelheden semi-gestructureerde informatie levert dit grote problemen op [Harmelen/Fensel 1999].

  1. Zoeken naar informatie
    De huidige zoekmachines die op trefwoord zoeken ontsluiten irrelevante informatie die een bepaald woord in een andere betekenis gebruikt, of zij missen informatie waar verschillende woorden voor de gewenste inhoud worden gebruikt. Wie wel eens een zoekmachine zoals Google, AltaVista of HotBot heeft gebruikt, weet dat het invoeren van een paar zoektermen en het ontvangen van duizenden hits niet altijd even nuttig is. Er is daarna nog veel handmatig 'uitwieden' van informatie nodig. We hebben behoefte aan zoekmachines die door gebruik van ontologieën (formele terminologieën) pagina's kunnen vinden die syntactisch verschillende, maar semantisch gelijksoortige woorden bevatten.

  2. Extractie van informatie
    Als men op dit moment relevante informatie uit informatiebronnen wil halen is dit alleen maar mogelijk door menselijk bladeren en lezen. De automatische agenten missen immers elke common sense kennis die vereist is om dergelijke informatie uit tekstuele representaties te halen, en zij zijn niet in staat om informatie die verspreid is over verschillende bronnen te integreren. De tags van HTML zijn voornamelijk gericht op de opmaak en geven relatief weinig informatie over de inhoud van een webpagina; daardoor kan die informatie moeilijk in een ander verband hergebruikt worden.

  3. Onderhoud
    Het onderhoud van zwak gestructureerde bronteksten is moeilijk en tijdverslindend wanneer dergelijke bronnen groot worden. Om dergelijke collecties consistent, correct, en up-to-date te houden is iets anders vereist: gemechaniseerde representatie van semantiek en randvoorwaarden ('constraints') die helpen anomaliën op te sporen.

  4. Automatische document generatie
    Wat we willen zijn adaptieve websites die hun dynamische reconfiguratie afstemmen op gebruikersprofielen of andere relevante aspecten [Perkowitz/Etzioni 1997]. Daarvoor is het nodig om semigestructureerde informatiepresentaties te genereren van semigestructureerde gegevens. Dit vereist een dat er een representatie van de semantiek van deze informatiebronnen wordt ontwikkeld die toegankelijk is voor machines.
Declaratieve en Procedurele Strategieën
Er zijn verschillende strategieën mogelijk om deze problemen op te lossen. Ten eerste kunnen informatiebronnen declaratief worden verrijkt met annotaties die hun semantiek toegankelijk maakt voor machines (en verwerkbaar door intelligente software). Ten tweede kan men programma's (filters, wrappers, extractieprogramma's) schrijven die procedureel dergelijke semantiek van webbronnen kunnen extraheren [Muslea 1998]. De procedurele en declaratieve benaderingen zijn complementair. De procedurele benadering kan gebruikt worden om annotaties voor webbronnen te genereren en bestaande annotaties maken procedurele toegang tot informatie veel makkelijker.
Terwijl HTML het mogelijk maakt om de informatie op het web te visualiseren, is het onvoldoende in staat om die informatie zodanig te beschrijven dat men software kan gebruiken om deze informatie te vinden of te interpreteren. In HTML kunnen geen contekstuele of conceptuele gegevens worden opgenomen. Daarom kan een computerprogramma bijvoorbeeld niet zien of cijfers in een webdocument een bedrag, een leeftijd of een datum voorstellen. De computer heeft hiervoor metadata nodig in de vorm van coderingen die vertellen wat men in een document kan verwachten. Met die coderingen kunnen computerprogramma's bepaalde handelingen automatisch verrichten, zoals het rangschikken van adressen en telefoonnummers. In theorie is de oplossing erg eenvoudig: gebruik markeringen die aangeven wát de informatie is, niet hóe deze eruit moet zien.

Index Nieuwe uitwisselingstalen: XML, RDF en DAML

Uitwisselingstalen
Uitwisselingstalen zijn talen waarmee documenten en berichten van extra informatie worden voorzien zodat de betekenis voor zowel mens als computer eenduidig wordt. Of nauwkeuriger:

Om metadata aan te brengen in webdocumenten zijn er door het W3C een aantal nieuwe standaarden voorgesteld. De eerste daarvan was PICS (Platform for Internet Content Selection). PICS is een mechanisme voor het communiceren van waarderingen van webpagina's vanuit een server naar cliënten. Deze waarderingen ('rating labels') bevatten informatie over de inhoud van webpagina's. Bijvoorbeeld: of een bepaalde pagina een peer-reviewed onderzoeksartikel bevat, of het geschreven is door een erkende onderzoeker, of het seks, naaktheid, geweld of grove taal bevat. PICS legt geen inhoudelijke criteria vast, maar is een algemeen mechanisme voor het creëren van waarderingssystemen. Diverse organisaties kunnen inhoudelijke waarderingen geven op basis van hun eigen doelstellingen en waarden; gebruikers kunnen kunnen hun browser zo instellen dat elke webpagina die niet aan hun eigen criteria voldoet wordt weggefilterd. De ontwikkeling van PICS werd vooral gemotiveerd in anticipatie op beperkingen die de Amerikaanse overheid aan het internet wilde opleggen middels de 'Communication Decency Act' (die later door het Federale Hooggerechtshof werd afgewezen).

PICS biedt een beperkt kader voor metadata. In aansluiting hierop zijn er door het W3C diverse initatieven genomen om een meer algemeen kader voor metadata te ontwikkelen. Er zijn minstens twee belangrijke technologieën voor het ontwikkelen van het semantisch web: eXtensible Markup Language (XML) en het Resource Description Framework (RDF).

XML
HTML werd ontworpen om informatie te presenteren; XML werd ontworpen om informatie te beschrijven. XML is een manier om informatie te structureren, op te slaan en te verzenden. Zowel de markeringen die gebruikt worden om HTML documenten op te maken als de structuur van HTML-documenten ligt vast. Schrijvers van HTML-documenten kunnen alleen markeringen gebruiken die gedefinieerd zijn in de HTML standaard. XML daarentegen stelt auteurs in staat hun eigen markeringen te definiëren en hun eigen documentstructuur. XML is geen vervanging voor HTML. In de toekomst zal XML gebruikt worden om de informatie te beschrijven, terwijl HTML gebruikt wordt om diezelfde informatie te formateren en te presenteren.

XML stelt sitebouwers in staat om hun informatie semantisch te markeren. Met XML kan iedereen zijn eigen markeringen maken die de webpagina's of delen van een document op een pagina annoteren. Scripts of programma's kunnen van deze markeringen gebruik maken, maar de scriptschrijver moet weten waarvoor de paginaschrijver elke markering gebruikt. Middels XML kunnen gebruikers dus een eigen structuur aan hun documenten geven.

XML is een grammaticaal systeem voor de bouw van speciale beschrijvingstalen. Met XML is het bijvoorbeeld mogelijk om een speciale beschrijvingstaal te maken voor wiskundige, psychologische of sociologische informatie. Deze met XML gemaakte beschrijvingstalen worden XML-toepassingen genoemd.

XML documenten lijken veel op HTML documenten. XML werkt met dezelfde bouwstenen als HTML: elementen, attributen en waarden. Een element heeft een openingstag met een naam, tussen een groterdan- (<) en een kleinerdanteken (>). De elementen worden eventueel gevolgd door attributen met waarden. De markeringen komen gepaard voor als <starttags> en </endtags>. De markeringen omgeven een documentdeel dat op zichzelf ook weer documentdelen kan bevatten. Door deze inbedding krijgt een document een boomstructuur. In een 'documentschema' staat welke onderdelen een document kan bevatten en in welke volgorde.

In een documentschema wordt tevens vastgelegd waar in een document hypermediale informatie opgenomen kan worden. Ontwerpers van documentschema's kunnen zelf bepalen welke namen zij kiezen voor tags en attributen en welke volgorden en inbeddingen van documentdelen zij hanteren. XML is dus een open standaard.

XML is inmiddels op brede schaal geaccepteerd als de standaard voor de uitwisseling van gegevens. Voor het delen van informatie en kennis tussen verschillende toepassingen hebben we een gedeelde reeks termen nodig die het toepassingsgebied beschrijven. Een grotere flexibiliteit kan bereikt worden wanneer niet alleen een serie termen wordt gedefinieerd, maar ook de relaties tussen deze termen. Zo'n serie gerelateerde termen wordt een ontologie genoemd.

RDF
De grote eenheidstheorie
"RDF has always had the appeal of a Grand Unification Theory of the Internet, promising to create an information backbone into which many diverse information sources can be connected. With every source representing information in the same way, the prospect is that structured queries over the whole Web become possible.
    That's the promise, anyway. The reality has been somewhat more frustrating. RDF has been ostracized by many for a complex and confusing syntax, which more often than not obscures the real value of the platform" [Dumbill 2000]
Het W3C heeft een nieuwe logische taal ontworpen waarmee computers gegevens kunnen weergeven en uitwisselen. Die taal heet RDF, een acroniem van Resource Description Framework. RDF integreert diverse activiteiten om webgebaseerde metadata in te voeren: sitemaps, inhoudelijke waardering, dataverzameling van zoekmachines ('web crawling'), digitale bibliotheekcollecties en gedistribueerd schrijven.

RDF biedt een kader voor de constructie van logische talen voor de samenwerking in het semantische web. Het is een op XML gebaseerde taal waarin computers gegevens kunnen weergeven en uitwisselen. RDF geeft informatie over de betekenis van informatie. In RDF maakt een document aannames dat specifieke dingen eigenschappen hebben met bepaalde waarden.

RDF legt de grondslag voor het verwerken van metadata: applicaties kunnen op het web informatie uitwisselen ('interoperability') die door machines begrepen kan worden. Een van de doelen van RDF is het specificeren van een gestandaardiseerde (en dus uitwisselbare) semantiek voor data gebaseerd op XML. Het is dus in zekere zin een algemeen mechanisme voor kennisrepresentatie. De definitie van het mechanisme is domein-neutraal: de semantiek van specifieke domeinen wordt niet vastgelegd, maar het mechanisme is wel bruikbaar voor het beschrijven van informatie uit elk domein.

RDF is een schemataal. Een RDF-document heeft bovenaan een pointer naar zijn RDF-schema. Dat is een lijst van de termen van gegevens die in het document gebruikt worden. Iedereen kan een nieuw schema-document maken.

RDF kan in diverse gebieden worden gebruikt. Het kan gebruikt worden bij:

Basaal RDF model
Het basale datamodel bestaat uit drie object-typen:
Bronnen ('resources')
Alle dingen die door RDF uitdrukkingen worden beschreven worden bronnen. Een bron kan een hele webpagina zijn, zoals het HTML-document "http://www.w3c.org". Een bron kan een deel van een webpagina zijn, zoals een specifiek HTML of XML element binnen een brondocument. Een bron kan ook een hele verzameling pagina's zijn, zoals een hele website. Een bron kan ook een object zijn welke niet direct via het web toegankelijk is, zoals een gedrukt boek. Bronnen worden altijd benoemd door URI's plus optionele anker id's. Alles kan een URI hebben.
Eigenschappen ('properties')
Een eigenschap is een specifiek aspect, kenmerk of relatie die gebruikt wordt om een bron te beschrijven. Elke eigenschap heeft een specifieke betekenis, definieert toegestane waarden, de typen bronnen die het kan beschrijven, en zijn relatie met andere eigenschappen.
Verklaringen ('statements')
Een specifieke bron samen met benoemde eigenschappen plus de waarde van die eigenschap voor deze bron is een RDF verklaring. Deze drie individuele delen van een verklaring worden respectievelijk het subject, het predicaat, en het object genoemd. Het object van een verklaring (d.i. de waarde van de eigenschap) kan een andere bron zijn of het kan 'literal' zijn (d.i. een bron, gespecificeerd door een URI of een eenvoudige string of primitief datatype gedefinieerd door XML).
Bronnen worden geïdentificeerd door een resource identifier. Een resource identifier is een URI plus een optioneel anker id. Neem bijvoorbeeld de volgende zin:
Albert Benschop is de redacteur van de bron http://www.sociosite.net.

Deze zin heeft de volgende onderdelen:

Subject (Bron) http://www.sociosite.net
Predikaat (Eigenschap) Redacteur
Object (literal) "Albert Benschop"

DAML
De DARPA Agent Markup Language (DAML) is een standaardtaal voor de constructie van ontologieën en ontologie-gebaseerde kennisrepresentaties. Het bevat instrumenten voor ontologie-ontwikkeling, consistentie-controle en mediatie tussen ontologieën. Het doel van DAML is het ontwikkelen van een taal en instrumenten die het semantisch web faciliteren. In de toekomst moet DAML de 'lingua franca' worden voor kunstmatige intelligentie. Net als RDF is DAML gebaseerd op XML waardoor het makkelijker met andere web-technologieën geïntegreerd kan worden.

Een nuttig grafisch overzicht van uitwisselingstalen wordt gegeven in The XML Family of Specifications: The Big Picture van Ken Sall.

Index Typologie van verbindingen

In lineaire teksten, zoals boeken of artikelen in conventionele tijdschriften, is elke informatie-eenheid met ten hoogste twee andere eenheden verbonden: met de informatie-eenheid (pagina, paragraaf, alinea, woord) die eraan voorafgaat en degene die erop volgt. Om de beperkingen van lineair gestructureerde documenten te verzachten werden in de loop der jaren diverse instrumenten ontwikkeld: voetnoten, doorverwijzingen, citaten, index, trefwoorden- en namenregister. Sinds de geboorte van het World Wide Web zijn we in staat om buiten de grenzen van de lineaire structurering van informatie te treden.

Het web is een sterk groeiende serie informatiebronnen die onderling met elkaar verbonden zijn door links. De kracht van een hypertekstuele koppeling is 'dat alles met alles verbonden kan worden'. Koppelingen ('links') zijn kruisverwijzingen tussen of binnen documenten. Dit maakt het mogelijk om in een niet-lineaire indeling te schrijven en te publiceren. Wetenschappers kunnen eindelijk ontsnappen aan de beperkingen van de lineaire organisatie van alle teksten en bibliografieën. Zij kunnen nu een referentiepad van eigen keuze volgen, dat aansluit bij hun belangstelling [Berners-Lee 1999:38].

Een koppeling is een verwijzing in een document naar een ander document (=externe koppeling) of binnen hetzelfde document (=interne koppeling).

Wat is een link?
Een link is een expliciete relatie tussen bronnen of delen van bronnen. Een bron is elke adresseerbare eenheid van informatie of dienst. Voorbeelden van bronnen zijn bestanden, plaatjes, documenten, programma's en zoekresultaten. Het middel dat gebruikt wordt voor de adressering van een bron is een URI (Uniform Resource Identifier) referentie. Het is ook mogelijk om een deel van een bron te adresseren.
In hypertekst zijn de externe (ook wel 'normale') koppelingen die tussen een hypertekstdocument en een ander extern document. Interne (ook wel 'ingebedde') koppelingen duiden aan dat er iets gaat gebeuren met het document: men verspringt naar een ander onderdeel van het document, er verschijnt een afbeelding in een webpagina, er wordt een gebruiksbestand geactiveerd of er wordt een simulatie vertoond.

Interne en externe hyperlinks zijn louter technische, en dus betekenisloze koppelingen. Een semantische koppeling is een verwijzing van het ene concept (=betekenis) naar een ander concept. Het zijn dus betekenisdragende hyperlinks.

Twee van de nieuwere talen waarmee de flexibiliteit van XML wordt vergroot zijn XML Linking Language (XLink) en XML Pointer Language (XPointer).

Geavanceerde hyperlinks
XLink voegt een aantal nieuwe functionaliteiten toe aan de hyperlinks op het web:
  • Links die naar meerdere bestemmingen leiden.
  • Bi-directionele links: links die naar beide kanten gevolgd kunnen worden ongeacht waar je het eerst was.
  • Links die read-only documenten annoteren: je kunt links maken die zichtbaar zijn wanneer mensen een document bekijken ook al ben je geen eigenaar van het document.
  • Links met speciale gedragingen, zoals expand-in-place, nieuw venster vs. vervanging, automatic follows enzovoort.
  • Link databases, met alle mogelijkheden van filteren, sorteren, analyseren en verwerken van linkverzamelingen.
Met XLink kunnen XML auteurs geavanceerde hyperlinks construeren. Naast een uitgebreide link-semantiek ondersteunt XLink annotatiediensten en nauwkeurige adressering van subbronnen wanneer XPointers worden gebruikt. XLink beschrijft hoe zowel eenvoudige eenrichtingslinks (zoals in HTML) als meer geavanceerde meerrichtingslinks aan XML documenten kunnen worden toegevoegd. Middels een linkset kunnen een hele reeks bestanden, afzonderlijke posities in een bestand of beide tegelijk met elkaar worden verbonden.

XPointer specificeert een mechanisme voor het wijzen naar willekeurige fragmenten ('chunks') van een doeldocument, zelfs wanneer de oorspronkelijke auteur van het doeldocument geen identificaties van fragmenten heeft aangebracht (bijvoorbeeld met de tag "dit_fragment#sectie_4"). XLink en XPointer zijn gebaseerd op twee volwassen standaarden voor de publicatiewereld: TextEncoding Initiative (TEI) en Hypermedia/Time-based Structuring Language (HyTime).

Zie ook de (voorlopige) typologie van semantische links van Harmsze [2000] en Kircz/Harmsze [2000].

Index Domeinspecifieke ontologieën

Ontologieën zijn de bouwstenen van het semantisch web [Klein/Fensel 2001]. Op het web spelen zij een cruciale rol om het verwerken, delen en hergebruik van kennis tussen programma's mogelijk te maken. Een ontologie is een classificatiesysteem voor begrippen en hun onderlinge verbindingen binnen een bepaald kennisdomein. Het is een soort proto-theorie die aangeeft welke elementen binnen een bepaald kennisdomein bestaan en hoe die elementen aan elkaar gerelateerd kunnen worden. Ontologieën zijn een representatie van gedeelde conceptualisering van een specifiek domein [Decker e.a. 2000]. Zij bieden steun bij het integreren van heterogene en gedistribueerde informatiebronnen [Fensel 2001a].

Ontologieën in elektronische handel
Ook voor elektronische handel ('e-commerce') is de ontwikkeling van het semantisch web van groot belang. Een van de meest cruciale problemen is het integreren van heterogene en gedistribueerde productbeschrijvingen. Onder leveranciers en verkopers van online producten en diensten bestaat meestal geen consensus over de producten en diensten die tot een domein behoren, hoe deze beschreven kunnen worden en hoe een productcatalogus ingedeeld moet worden. Een ontologie voor het domein van elektronische handel komt dus primair tot stand door het bouwen aan een gemeenschappelijke productcatalogus die voor alle zoekacties en transacties gebruikt kan worden.
    Dieter Fensel [2001] geeft een overzicht van de initiatieven die genomen zijn om ontologieën te construeren waarmee de elektronische handel gemedieerd en dus geordend kan worden. Deze ontologieën maken een semantiek van gegevens mogelijk die door machines verwerkt kunnen worden. Op basis van zo'n infrastructuur van betekenisvolle gegevens kunnen volledig nieuwe soorten geautomatiseerde diensten worden geënt. Intelligente software hulpjes kunnen relatief zelfstandig het hele internet afzoeken naar producten en diensten waar de gebruiker belangstelling voor heeft, zij kunnen prijzen vergelijken en sugggesties doen, zij kunnen coalities van kopers en verkopers vormen, zij kunnen onderhandelen over producten en prijzen, of helpen om producten en diensten zo te configureren dat zij voldoen aan de door de gebruikers gespecificeerde vereisten.
    Een uitgewerkt ontologie voor het hrm-domein is te vinden in HR-XML Consortium. Het consortium legt zich toe op de ontwikkeling van promotie van een standaardsuite van XML-specificaties voor het activeren van e-business en het automatiseren van personeelsgebonden gegevensuitwisseling.
De ontologieën die het semantische web mogelijk maken zijn formele conceptualiseringen van specifieke domeinen die gedeeld worden tussen mensen en/of applicatiesystemen. Ontologieën vormen tevens de ruggegraat van het management van metadata omdat zij de weg plaveien voor de semi-automatische semantische annotatie van webpagina's alsmede voor extractie van informatie uit webbronnen.

Een ontologie bevat meestal een hiërarchische beschrijving van belangrijke concepten in een domein, en beschrijft cruciale eigenschappen van elk concept middels een waarde-kenmerk mechanisme. Bovendien kunnen de relaties tussen concepten worden beschreven door aanvullende logische zinnen. Tenslotte krijgen individuen in het betreffende domein een of meer concepten toegewezen die zij hun juiste type moeten geven.

Ontologieën bieden een gedeeld en gemeenschappelijk begrip van een domein dat tussen mensen en toepassingssystemen gecommuniceerd kan worden. De naamgeving binnen documentschema's is van groot belang, vooral bij uitwisseling van gestructureerde informatie. Daarom is er dringend behoefte aan ontologieën voor namen.

Door het mondiale karakter van het web is er behoefte ontstaan om 'search agents' te voorzien van een universeel referentiekader. Zo'n domeinspecifieke ontologie speelt eveneens een belangrijke rol bij datamining en extractie van kennis uit documenten.

Ontologieën gaan een belangrijke rol spelen in het ondersteunen van informatie uitwisselingsprocessen in diverse gebieden. Om ontologieën te maken zijn inmmidels een aantal instrumenten in omloop gebracht, zoals Protégé 2000, OILed, OntoEdit. Er bestaan ook bibliotheken met ontologieën die hergebruikt kunnen worden. Voorbeelden daarvan zijn Ontolingua en de DAML ontology library.

Index Gemeenschappelijk en gedeeltelijk begrip

Het is de opdracht van wetenschappelijke instellingen om nieuwe kennis te produceren en deze op zodanige wijze te verspreiden dat deze kennis gedeeld kan worden en een gemeenschappelijk begrip ontstaat dat als grondslag dient voor verdergaande samenwerking. De vraag is op welke manier het semantisch web kan bijdragen aan de ontwikkeling van nieuwe kennis en aan de versterking van het gemeenschappelijke begrip binnen de wetenschappelijke domeinen.

Om iets nieuws te begrijpen moeten we een verband kunnen leggen met andere dingen die we al goed begrijpen [Berners-Lee 1999:193]. Nieuwe kennis wordt dus gedefinieerd in termen van wat we al weten. Alle wetenschappelijke definities en begrippen zijn relationeel, dat wil zeggen ze zijn gerelateerd aan andere definities en begrippen, net als in een woordenboek. Door de koppelingen op het semantische web te volgen kan een computer iedere term die hij niet begrijpt omzetten in een term die hij wel begrijpt. Deze relatieve vorm van 'betekenis' kan dus door een machine worden verwerkt. Om termen te kunnen koppelen hebben we redeneertalen ('inference languages') nodig. Met redeneertalen kunnen computers gegevens van de ene indeling omzetten in een andere. Het redeneerniveau stelt computers in staat om definities en concepten te koppelen. Op deze wijze kan het semantisch web bijdragen aan de productie van nieuwe kennis.

Kennisrepresentatie
De traditionele systemen van kennisrepresentatie waren in sterke mate centraal gecontroleerd. Domein specifieke en gecontroleerde trefwoorden systemen en thesauri werden ontwikkeld en verspreid door —meestal bibliotecaire— instellingen. In dergelijke indexen en thesauri wordt een definitie van gemeenschappelijke begrippen (zoals 'fruit', 'ouder', 'conflict', 'ongelijkheid' of 'auto') vastgelegd. Door deze centrale controle worden dergelijke systemen inflexibel. Door toenemende omvang en reikwijdte wordt zo'n systeem al snel onbeheersbaar. Bovendien worden in gecentraliseerde systemen grenzen gesteld aan de vragen die de computer betrouwbaar kan beantwoorden [Berners-Lee/Handler/Lassila 2001].
   Er zijn hogere computertalen nodig die de gegevens op een website zodanig kunnen interpreteren dat ze begrijpen dat een woord in het ene document dezelfde betekenis heeft als een woord in een ander document, ook al staat er iets anders. Daarbij hoeft men de betekenis van het woord zelf niet te kennen, zolang maar wordt aangegeven dat het woord tot een bepaald concept kan worden gerekend. Dit is een veel betere manier van kennisrepresentatie dan wanneer computers moeten afgaan op beschrijvingen van individuele woorden als 'een wiel is een ding en een auto heeft vier wielen'. Door verbindingen te leggen tussen conceptuele informatie kan het semantisch web gaandeweg kennis over zijn eigen domein vergaren. Wanneer slimme programma's ('intelligente agents') alle informatie kunnen vergaren die de gebruiker wenst, is surfen door de gebruiker eigenlijk niet meer nodig.
Naast de productie van nieuwe kennis gaat het binnen elk wetenschappelijk kennisdomein om de vraag hoe we binnen de grenzen van de controverse en diversiteit toch een zodanig gemeenschappelijk begrip verwerven over basisbegrippen en methodieken waardoor we binnen zo'n domein —en liefst ook tussen meerdere disciplinaire domeinen— in staat zijn tot een zelfreflexief gecontroleerde uitwisseling van argumenten (inclusief onderbouwde regels en standaarden voor bewijsvoering, methodologieën, empirische toetsing, en statistische relevantie en betrouwbaarheidsmaatstaven). De constitutie van dergelijk gemeenschappelijk begrip is echter tegelijkertijd een complex (met diverse lagen) en dynamisch (met meerdere temporaliteiten) proces. Mensen bereiken een 'gemeenschappelijk begrip' door een reeks consistente associaties tussen woorden te leggen, die in voldoende mate op elkaar lijken. Gemeenschappelijk begrip is een voorwaarde voor het samenwerken [Berners-Lee 1999:192].

Het semantisch web is een utopie die steeds dichterbij komt. Steeds meer organisaties en netwerken —zoals het W3C— spannen zich in om een standaardisering van de uitwisselingstalen van het web te bewerkstelligen. Zij specificeren de semantieken met behulp van formele talen en redeneertalen. De echte uitdaging is echter gelegen in de verbinding tussen deze formele semantieken met dieperliggende betekenis zoals deze tot uiting komt in de consensus die ontstaat tussen gebruikers op het semantisch web [Beherens/Kashyap 2001]. Het gaat er dus niet om mondiale normen vast te stellen —het van bovenaf opleggen van dergelijke normen is eenvoudigweg onmogelijk—, maar om toe te werken naar gedeeltelijk begrip [Berners-Lee 1999:197]. Het semantisch web is dus veeleer een infrastructuur die de weg vrijmaakt voor het creëren van gemeenschappelijk begrip. Net als het internet zal het semantisch web zo gedecentraliseerd mogelijk zijn.

Index Moeizaam zoeken

Veel wetenschappelijke bronnen zijn erg moeilijk te vinden. Ze worden door zoekmachines gemist, of je moet tientallen pagina's met hits doorworstelen in de hoop dat daartussen nog een relevante link te vinden is naar het gezochte document. De beperkingen van de huidige generatie zoekmachines heeft voor wetenschappers veel grotere gevolgen dan voor reguliere gebruikers.

De meeste zoekmachines werken met 'crawler' programma's die een webpagina indexeren, springen dan naar andere pagina's waarnaar verwezen wordt, indexeren deze, enzovoort. Door de enorme groei van het web zullen deze zoekmachines snel onbruikbaar worden. Zelfs de meest uitgebreide zoekmachines dekken nauwelijks de helft van het totale aantal webpagina's. En dan alleen nog maar de helft van de statische pagina's van het oppervlakte web, en niet de informatie die in het diepteweb van databases ligt opgeslagen [dit wordt uitvoeriger behandeld in De toekomst van het zoeken].

Nieuwe zoektechnologieën beloven de preciesie van zoektochten op het web aanzienlijk te verhogen. De introductie van XML maakt het bijvoorbeeld mogelijk om een zoekopdracht te beperken tot wetenschappelijke documenten, of tot documenten die tot een zeer gespecialiseerd wetenschapsgebied behoren. De verwachting is dat binnen enkele jaren voor de meeste onderzoekers het zoeken met trefwoorden op het gehele web tot het verleden zal behoren. Persoonlijke zoektochten zullen steeds meer vanuit gespecialiseerde wetenschappelijke zoekportalen vertrekken.

Een aantal zoekmachines is hun bakens al aan het verzetten. Een belangrijke innovatie in de zoektechnologie is geïnspireerd door de citatie-analyses die op de wetenschappelijke literatuur worden toegepast. Conventionele zoekmachines gebruiken algoritmes en eenvoudige vuistregels om de pagina's te rangordenen op grond van de frequentie van de sleutelwoorden die in een zoekopdracht worden gespecificeerd. Een nieuw soort zoekmachines maakt gebruik van de wirwar van links tussen webpagina's. Pagina's waar vanuit veel andere sites naar verwezen wordt, worden beschouwd als 'autoriteiten', en worden in de zoekresultaten het hoogste geplaatst. In minder dan een jaar is Google —opgezet door twee Amerikaanse studenten Sergey Brin en Lawrence Page— hierdoor de meest populaire zoekmachine geworden omdat zij voor de meeste zoekopdrachten meer precieze resultaten oplevert dan de conventionele machines. Bij deze ordening wordt niet alleen gekeken naar het aantal links, maar ook waar zij vandaan komen. Een link vanuit een hoog aangeschreven wetenschappelijk tijdschrift telt zwaarder dan een link vanuit een willekeurige homepage ('Sommige links zijn gelijker dan andere links').

Er worden nieuwe algoritmes ontwikkeld die documenten niet alleen analyseren op trefwoorden, maar ook op begrippen. Daarbij wordt meestal gebruik gemaakt van uitgebreide thesauri, die duizenden begrippen kunnen herkennen. De zoekmachines kijken dan naar gedefinieerde patronen van termen en analyseren hun contekstuele relatie. Gebruikers kunnen een wetenschappelijk document in de zoekmachine stoppen. Dit document wordt dan automatisch geanalyseerd waarbij de belangrijkste begrippen worden geïdentificeerd en een profiel gemaakt wordt dat gebruikt wordt om naar gelijksoortige teksten te zoeken. Gebruikers kunnen hun zoekopdrachten verfijnen door het aanpassen van het gewicht dat aan elk afzonderlijk begrip wordt toegekend. Een voorbeeld deze nieuwe zoektechnologie is het Nederlandse project van Collexis.

De plaats van zoekmachines zal steeds meer worden overgenomen door 'intelligente' programma's die zoeken met gebruikmaking van hun ervaring met de behoeften en belangen van hun gebruikers. Zij leren van eerdere zoeksessies. Naarmate de zoektechnologieën verbeteren zullen ook uitgevers van tijdschriften en beheerders van elektronische archieven ervoor kunnen zorgen dat het gemakkelijker wordt om naar wetenschappelijke documenten op het web te zoeken. In tijdschriften worden de referenties in de gepubliceerde artikelen steeds meer gelinkt naar de brondocumenten.

Index Intelligente Agents

Via netwerken en databanken is een toenemende hoeveelheid informatie beschikbaar. De huidige zoekmachines ondersteunen gebruikers slechts tot op bepaalde hoogte bij het lokaliseren van de relevante informatie. Met 'intelligent agents' kunnen passieve zoekmachines worden omgezet in actieve, persoonlijke assistenten.

Intelligente agentHet semantisch web brengt structuur aan in de betekenisvolle inhoud van webpagina's en schept een omgeving waarin software agents die van pagina naar pagina zwerven relatief zelfstandig ingewikkelde taken voor gebruikers kunnen uitvoeren. Intelligente agents zijn kleine software programma's die het internet afstruinen om informatie te vinden die beantwoordt aan de instructies van hun gebruikers. Agents zijn dus semi-autonome computerprogramma's die de gebruiker assisteren bij de omgang met computerapplicaties. Agents maken niet alleen gebruik van de semantische infrastructuur, maar kunnen ook bijdragen aan de creatie en het onderhoud van die infrastructuur. Goede agents zullen mensen in staat stellen om minder tijd te besteden aan het zoeken naar informatie, en meer tijd aan het gebruiken of analyseren van 'relevante' informatie die automatisch wordt ontsloten. Een goede internet agent moet communicatief, vaardig, autonoom en adaptief zijn [Hendler 1999].

  1. Met een goede 'agent' moet je in de eerste plaats kunnen communiceren. Dat is alleen maar mogelijk wanneer een agent dezelfde taal spreekt als zijn gebruiker. Een agent die niet begrijpt waar je naar toe wilt of wat je daar wilt doen is niet erg behulpzaam. Het grootste probleem met de huidige zoekmachines is dat hoewel zij gebaseerd zijn op taal, zij geen kennis hebben van de betreffende domeinen. De oplossing voor dit probleem zijn ontologieën en redeneerregels.
    • Ontologieën zijn formele definities van kennisdomeinen. Een voorbeeld daarvan is: "Wanneer X een auto is, dan heeft X 4 banden".
    • Een voorbeeld van een redeneerregel is: "Wanneer iets onderdeel is van iets anders, en dat laatste zelf onderdeel is van een verzameling, dan is het eerste item een onderdeel van de verzameling".

  2. Een agent moet zowel suggesties doen als kunnen handelen. Een goede agent geeft niet alleen advies, maar verleent ook diensten. Goede agents zijn dus in staat om dingen op het web te doen waarvan je niet de details hoeft te weten. Gebruikers moeten dus bepaalde taken aan hun intelligente assistenten kunnen delegeren. Daarbij gaat het niet alleen om taken zoals het zoeken, ordenen en opslaan van informatie, maar ook om het lezen van elektronische post, het maken van afspraken, het bijhouden van een kalender, het opstellen van een reisprogramma.

  3. Een agent moet dingen kunnen doen zonder, of met zo min mogelijk supervisie. Gebruikers willen niet alleen een 'onderdanige slaaf' die danst naar de pijpen van zijn meester, maar ook en vooral een 'slimme slaaf' die zich op eigen initiatief inspant om zijn meester werkzaamheden uit handen te nemen. Een intelligente assistent kan binnnen de parameters van zijn gebruiker relatief autonoom opereren.

  4. Tenslotte moet een goede agent gebruik maken van ervaringen om de gebruiker te helpen. Een agent moet in staat zijn om zijn gedrag aan te passen op basis van een combinatie van feedback van de gebruiker en omgevingsfactoren. Dit betekent ook dat intelligente agents rekening houden met de expertise van de gebruiker en bijdragen aan het verlagen van de drempels voor nieuwe gebruikers. Adaptief zijn veronderstelt dat de agent een leervermogen heeft. Een goede agent heeft enige domeinkennis maar leert wat de gebruiker zou willen doen gebaseerd op handelingen van de gebruiker.
Dergelijke internetagents moeten nog grotendeels worden ontwikkeld. De huidige experimentele agents zijn nog lang niet robuust genoeg voor grootschalig gebruik. Het kernprobleem daarbij is het bouwen en onderhouden van ontologieën voor webgebruik. Om te kunnen interacteren met een agent hebben we een nieuwe taal nodig waarmee we kunnen communiceren.

Index Elektronische PubliceerOmgeving (EPO)

Structurering van wetenschappelijke informatie
We hebben gezien waarom de huidige zoekmachines, die gebruik maken van de techniek van zoektermen, ongeschikt zijn voor het gedetailleerde type zoeken dat de wetenschappelijke gemeenschap nodig heeft. Met behulp van XML en andere geavanceerde webtalen kan de structurering van wetenschappelijk materiaal op een hoger plan worden georganiseerd. Hierdoor wordt het voor webagents makkelijker om kernaspecten van wetenschappelijke documenten te vinden.

Modularisatie van informatie-eenheden
Een module is "a uniquely characterised, self-contained representation of a conceptual information unit aimed at communicating that information. Not its length, but the coherence and completeness of the information it contains make it a module. This definition leaves open that modules are textual or, e.g., pictorial. Modules can be located, retrieved and consulted separately as well as in combination with related modules. Elementary modules can be assembled into higher-level, complex modules. We define a complex module as a module that consists of a coherent collection of (elementary or complex) modules and the links between them. Using a metaphor, elementary modules are 'atomic' entities that can be bound into a 'molecular' entity: a complex module." [Kircz/Harmsze 2000].
In het papieren tijdperk vormden het boek en het artikel de cruciale eenheden van wetenschappelijke informatie. Boeken en tijdschriftartikelen refereerden aan andere boeken en tijdschriften, waar mogelijk met een precisering van het hoofstuk of de pagina. In het digitale tijdperk is deze klassieke eenheid van wetenschappelijke informatie verpulverd. De structuur van digitaal gepresenteerde wetenschappelijke informatie is veel fijnmaziger ('granularity of information'). De digitale informatie-eenheden zijn hierdoor veel coherenter en dus zelfstandiger geworden. De informatiemodules of -moleculen zijn onderling aan elkaar verbonden door middel van eenvoudige (interne en externe) hyperlinks en door semantische (= betekenisdragende) hyperlinks. Door het gebruik van nieuwe uitwisselingstalen (XML, RDF en DAML) wordt het niet alleen mogelijk om betekenisvolle informatie-eenheden te definiëren en uit te wisselen, maar wordt tevens het repertoire van meer geavanceerde hyperlinks aanzienlijk uitgebreid.

Introductie van hogere uitwisselingstalen leidt tot een duidelijke scheiding tussen betekenisvolle inhoud en presentatie (lay-out). Hierdoor komt een voorheen onbereikbaar doel met rasse schreden naderbij: de cognitieve structuren van academische publicaties worden transparant door middel van verbanden tussen wetenschappelijke concepten: ideëen, hypothesen, bewijsvoeringen, weerleggingen, interpretaties, commentaren enzovoort.

Wetenschappelijke publicaties
Een elektronische publiceeromgeving is een afgebakende virtuele ruimte waarin wetenschappelijke documenten worden gepubliceerd en bediscussieerd. Wetenschappelijke documenten zijn digitale informatiebronnen met een eigen identiteit die is samengesteld uit vier elementen: authenticiteit, vindbaarheid, citeerbaarheid en dynamisch in zijn samenstelling [bron].

Publiceeromgeving
De eigenaardigheden van het elektronisch publiceren worden uitvoerig behandeld in Interactief publiceren in elektronische tijdschriften. Daarin wordt ook apart aandacht besteed aan de mogelijkheden om het mechanisme van intercollegiale kwaliteitscontrole ('peer reviewing') digitaal te reproduceren en te verbeteren.
Een elektronische publiceeromgeving is een programma waarmee men digitale documenten op internet kan plaatsen, discussies over deze publicaties kan faciliteren en modereren, intercollegiale kritiek kan stimuleren, en kwaliteitscontrole ('peer reviewing') kan institutionaliseren. Een elektronische publiceeromgeving is hypertekstueel, interactief, multimediaal en flexibel.

  1. Hypertekstueel
    De informatie die wordt overgedragen in gedrukte artikelen wordt per definitie in een lineaire uiteenzetting gepresenteerd. Elke informatie-eenheid wordt voorafgegaan en gevolgd door telkens één andere informatie-eenheid. Lezers worden via een en dezelfde route door de tekst gestuurd, namelijk van het begin naar het eind.

    Digitaal gedistribueerde wetenschappelijke documenten kunnen nu al gebruik maken van de mogelijkheden om hypertekstuele verbindingen te leggen tussen en binnen documenten. In hyperteksten kan elke informatie-eenheid worden verbonden aan meerdere andere informatie-eenheden. De lezer kan zelf kiezen welke van deze verbindingen gevolgd wordt. De structurering van een hypertekst legt slechts de grenzen vast waarbinnen het leesgedrag kan variëen en bepaalt binnen deze grenzen de kans dat specifieke leestrajecten daadwerkelijk gevolgd worden. Lezers kiezen in het netwerk van onderling verbonden informatie-eenheden een traject dat beantwoordt aan hun eigen interesses en voorkeuren.

    Hypertekst maakt het mogelijk om complex gestructureerde theoretische uiteenzettingen beter te presenteren. Complexe theorieën opereren immers meestal op meerdere abstractieniveaus tegelijk die vaak als geneste hiërarchieën met elkaar verbonden zijn [Lineaire en Hypertekst]. Naast deze presentatievoordelen biedt hypertekst tevens de mogelijkheid direct toegang te bieden tot het volledige bibliografische citaat en tot de geciteerde documenten zelf. Bovendien maakt de semantische revolutie het binnenkort mogelijk om echte betekenisdragende hyperlinks te volgen zodat we gericht kunnen zoeken naar diverse vertakkeningen van wetenschappelijke concepten en dwarsverbindingen in gegevensstructuren.

  2. Multimediaal
    Het conventionele model van academische publicatie is een model van bijna louter letters, meestal zwart op wit. Over de hoeveelheid en kleurenschakering van illustraties werden meestal gedetailleerde afspraken gemaakt, vooral vanwege de kosten. EPO's bieden de mogelijkheid om op relatief goedkope wijze tekst, beeld en geluid weer met elkaar te verenigen (inclusief animaties, simulaties en demonstraties). Multimediaal betekent ook dat wetenschappers in staat worden gesteld om in hun onderlinge communicatie gebruik te maken van de meest uiteenlopende internettechnologieën: van louter tekstuele email via directe geluidsverbindingen tot aan complexe videoconferenties.

  3. Interactief
    Conventionele publicaties in papieren tijdschriften zijn weinig interactief. Het is overwegend eenrichtingsverkeer van auteurs naar lezers, ook al wordt bijna altijd enige ruimte geboden voor discussie en kritische reacties. De inherente traagheid van het papieren medium zorgt er echter voor dat deze reacties pas maanden later worden gepubliceerd. Het is niet ongebruikelijk dat er minstens een jaar tijdsverschil ligt tussen het indienen van een manuscript voor peer reviewing en de publicatie van een collegiale reactie.

    In EPO's is een permanente interactie tussen auteurs, redactie, recensenten en lezers mogelijk. Al vanaf het eerste stadium van het onderzoeksproces kan ruimte geboden worden voor communicatie met vakgenoten. EPO's bieden niet alleen ruimte voor interactie tussen producenten van domeinspecifieke kennis (en dus voor intercollegiale discussie en kritiek), maar ook tussen redacties en producenten van wetenschappelijke kennis (en dus voor intercollegiale kwaliteitscontrole in 'peer-to-peer' relaties).

    Geavanceerde EPO’s bieden hun lezers/gebruikers de mogelijkheid om direct commentaar te leveren op wetenschappelijke documenten of specifieke onderdelen daarvan. Daarmee kunnen niet alleen de betreffende auteurs hun voordeel doen, maar ook de lezers. De lezer krijgt hierdoor bij het doorwerken van een wetenschappelijk document telkens ook de mogelijkheid om het commentaar van vakgenoten op dat document of op bepaalde onderdelen van dat document te lezen.

  4. Flexibel
    Zoals gezegd zijn conventionele wetenschappelijke tijdschriften door de specifieke aard van de informatiedrager ('het geduldige papier') uitermate statisch. Wat eenmaal is gepubliceerd blijft altijd zo staan —totdat het verzuurde papier verpulvert. Gemaakte fouten kunnen praktisch niet worden hersteld (tenzij men een 2e editie haalt); aanvullingen, actualiseringen en herschrijvingen vereisen een nieuwe publicatie. Wat eenmaal gedrukt is laat zich moeilijk wijzigen. EPO’s zijn in dit opzicht veel flexibeler.

    In elektronische publiceeromgevingen is het in principe altijd mogelijk en relatief eenvoudig om wijzigingen aan te brengen in reeds gepubliceerde digitale documenten. Kleine en grotere fouten kunnen onmiddelijk worden gerepareerd en actualiseringen, wijzigingen en uitbreidingen kunnen ten alle tijden snel worden doorgevoerd. Voor 'publicaties in wording' kan dit zonder omhaal, onder vermelding van de datum waarop het document voor het laatst werd gemodificeerd (versiebeheer). Bij 'gearriveerde publicaties' moeten nauwkeurige metadata ervoor zorgen dat gebruikers in staat zijn om de verschillende versies van het document te kunnen identificeren. In de archieven van de EPO's kunnen dan altijd de eerdere versies van het betreffende document worden opgeslagen.

    EPO’s zijn niet alleen flexibel in de zin dat er makkelijk wijzigingen in documenten kunnen worden aangebracht. Zij zijn ook flexibel in een meer inhoudelijke zin. Goed georganiseerde EPO’s maken het namelijk ook mogelijk om meervoudig gebruik te maken van informatie-eenheden die door verschillende auteurs zijn gepubliceerd.

Een EPO is een permanente virtuele ruimte voor wetenschappelijke kennisontwikkeling en discussie over een disciplinair of thematisch afgebakend domein. Het is een ruimte waarin verbindingen gelegd kunnen worden tussen conceptuele informatie waardoor er gaandeweg kennis vergaard kan worden over zijn eigen domein.

Index Referenties

  1. AgentLink

  2. Arciniega, Fabio A. [2000]
    What is XLink?
    Een uitstekende inleiding op de werking van XLink.

  3. Automate or Die

  4. Bearman, David / Trant, Jennifer [1998]
    Authenticity of Digital Resources
    In: D-Lib Magazine, June 1998.

  5. Baeza-Yates, Ricardo / Ribeiro-Neto
    Modern Information Retrieval

  6. Behrens, Clifford / Kashyap, Vipul [2001]
    The "Emergent" Semantic Web: A Consensus Approach for Deriving Semantic Knowledge on the Web [pdf]
    Paper gepresenteerd op het 'Semantic Web Working Symposium' (SWWS), July 30 - August 1, 2001, Stanford University, California, USA.

  7. Berners-Lee, Tim [1998]
    Semantic Web Road Map
    Een omvattend plan voor de architectuur van het Semantisch WWW.

  8. Berners-Lee, Tim [1999]
    De wereld van het WWW.
    Amsterdam: Uitgeverij Nieuwezijds.

  9. Berners-Lee, Tim / Hendler, James / Lassila, Ora [2001]
    The Semantic Web
    In: Scientific American, May 2001.

  10. Bots and Intelligent Agents

  11. Bradley, Neil [2002]
    The XML Companion.
    Addison-Wesley.

  12. Brin, Seghey / Page, Lawrence
    The Anatomy of a Large-Scale Hypertextual Web Search Engine
    Een analyse van de werking van Google.

  13. Cargill, C. [1994]
    Information Technology Standardization: Theory, Process, and Organizations.
    Bedford, MA: Digital Press.

  14. Castro, Elizabeth [2001]
    XML voor het World Wide Web.
    Amsterdam: Peachpit Press.

  15. DataGrid
    Een project van de Europese Unie gericht op stimulering van een volgende generatie wetenschappelijk onderzoek dat intensieve berekening en analyse van gedeelde grootschalige databases vereist en dat verspreid is over diverse wetenschappelijke gemeenschappen.

  16. Davenport, T.H. / Prusak, L. [1998]
    Working Knowledge: How Organizations Manage What They Know.
    Boston: Harvard Business School Press.

  17. Daviers, John / Fensel, Dieter / Harmelen, Frank van [2002]
    Towards the Semantic Web: Ontology-Driven Knowledge Management

  18. deepx.com
    Gespecialiseerd in het ontwerpen en ontwikkelen van oplossingen voor data engineering en elektronisch publiceren met XML technologieën.

  19. Decker, Stefan / Fensel, Dieter / Harmelen, Frank van e.a. [2000]
    Knowledge Representation on the Web [pdf]
    In: International Workshop on Description Logics.

  20. Description Logics
    Redactie: Carsten Lutz.

  21. Dublin Core Metadata Initiative (DCMI)

  22. Dumbill, Edd [2000]
    Putting RDF to Work

  23. Electronic Publishing Initiative at Columbia (EPIC)
    EPIC streeft naar een nieuwe wijze van wetenschappelijke en educatieve publicatie door gebruik te maken van nieuwe media-technologieën in een geïntegreerde onderzoeks- en productieomgeving.

  24. Erdmann, Michael / Studer, Rudi [1999]
    Ontologies as Conceptual Models for XML Documents

  25. Fensel, D. [2001a]
    Ontologies: Silver Bullets for Knowledge Management and Electronic Commerce.
    Berlijn: Springer Verlag.

  26. Fensel, D. [2001b]
    Understanding is based on Consensus.
    Panel over semantiek op het web. 10thInternational WWW Conference, Hong Kong.

  27. GCA: Graphic Communication Association

  28. Gilliland-Swetland, Anne J. / Eppard, Philip, B. [2000]
    Preserving the Authenticity of Contingent Digital Objects
    In: D-Lib Magazine, July/August 2000.

  29. Godwin, Mike [1994]
    Nine Principles for Making Virtual Communities Work
    In: Wired, 2(6) 72-3.

  30. Golbeck, Jennifer / Grove, Michael / Parsia, Bijan / Kalyanpur, Adtiya / Hendler, James [2002]
    New tools for the semantic web
    In: Proceedings of 13th International Conference on Knowledge Engineering and Knowledge Management. Suguenza, Spain.

  31. Golbeck, Jennifer / Parsia, Bijan / Hendler, James [2003]
    Trust networks on the semantic web
    In: Proceedings of Cooperative Intelligent Agents.
    Helsinki, Finland.

  32. Gruber, T.R. [1993]
    A Translation Approach to Portable Ontology Specification.
    In: Knowledge Acquisition 5: 199-220.

  33. Harmelen, Frank van / Fensel, Dieter [1999]
    Practical Knowledge Representation for the Web
    In: Proceedings of the IJCAI'99 Workshop on Intelligent Information Integration.

  34. Harmsze, Frédérique-Anne P. [2000]
    Modular structure for scientific articles in an electronic environment. (proefschrift)
    Zie voor andere artikelen.

  35. Hendler, James [DARPA]
    Agent Based Computing [.ppt]
    Professor Hendler is een van de grondleggers van DAML, de uitwisselingstaal die ontwikkeld is op het Defense Advanced Research Projects Agency [DARPA].

  36. Hendler, James [1999]
    Is There an Intelligent Agent in Your Future?
    In: Nature, 11 March 1999.

  37. Hendler, James [2001]
    Agents and the Semantic Web.
    In: IEEE Intelligent Systems 16(2).

  38. Hendler, James /Berners-Lee, T. / Miller E. [2002]
    Integrating applications on the semantic web
    Journal IEE Japan 122(10: 676-80.

  39. Hendler, J. / McGuinness, D.L. [2001]
    The DARPA Agent Markup Language.
    In: IEEE Intelligent Systems, 15(6): 72-3.

  40. Hendler, James /Parsia, Bijan [2002]
    XML and the semantic web
    In: XML Journal.

  41. Horn, Robert (MacroVU)
    Can Computers Think?
    In 1950 schreef de Engelse mathematicus en uitvinder van de computer Allen Turing: "I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted". In de daarop volgende discussie hebben de beste koppen uit diverse wetenschappelijke disciplines zich gebogen over de vraag of computers kunnen denken. Het hele debat is hier letterlijk in kaart gebracht.

  42. Information Society Technologies (IST) [2000]
    Workshop Semantic Web Technologies

  43. Klein, Michel / Fensel, Dieter [2001]
    Ontology versioning on the Semantic Web [pdf]
    Paper gepresenteerd op het 'Semantic Web Working Symposium' (SWWS), July 30 - August 1, 2001, Stanford University, California, USA.

  44. Knowledge Representation
    Editor: Enrico Franconi.

  45. Lambrix, Patrick
    Description Logics
    De meest uitgebreide verzameling online informatie over beschrijvingslogica's. Beschrijvingslogica's zijn talen voor kennisrepresentatie die toegesneden zijn op het uitdrukken van kennis over begrippen en begripshiërarchieën.

  46. McIIraith, Sheila A. / Cao Son, T. / Zeng, Honglei [2001]
    Mobilizing the Semantic Web with DAML-Enabled Web Services
    Semantic Web Workshop 2001 Hongkong, China.

  47. Miller, Libby / Price, Simon 2004]
    The Semantic Web is Your Friend

  48. MusicXML: Music Markup Language
    Een XML vocabulair dat ontworpen is om muzikale noten, en in het bijzonder de gebruikelijke westerse muzikale notatie vanaf de 17e eeuw te presenteren. Het is ontworpen als een uitwisselbaar formaat voor notatie, analyse-, ontsluitings- en presentatietoepassingen.

  49. Northern Light Special Edition [2001]
    XML

  50. Noy, Natalya F. / McGuinnes, Deborah L. [2001]
    A Guide to Creating Your First Ontology

  51. On-To-Knowledge
    Een project van het Information Society Technologies (IST) programma voor Research, Technology Development & Demonstration. Het project probeert de volledige kracht van de ontologische benadering gebruiken om efficiënt kennismanagement te vergemakkelijken. De technische ruggegraat van het project is het gebruik van ontologieën voor de diverse taken van informatie-integratie en -mediatie. Een van de resultaten van het project is de Ontology Inference Layer (OIL). OIL is een standaard voor het specificeren en uitwisselen van ontologieën die voorzien in gedeeld en gemeenschappelijk begrip van een domein dat gecommuniceerd kan worden tussen mensen en computer- en webapplicaties.

  52. OntoWeb
    Een portaal dat de academische en industriële gemeenschap bediend die geïnteresseerd is in onderzoek naar ontologie. De website zelf is 'ontology-based'.

  53. OpenMath
    Systeem voor elektronische toegang en gebruik van mathematische informatie.

  54. Palmer, Sean B. [2001]
    The Semantic Web: An Introduction

  55. Parkowitz, M. / Etzioni, O. [1997]
    Adaptive Web Sites: an AI challenge.
    In: IJCAI'97.

  56. RecipeML: Recipe Markup Language
    Een XML vocabulair voor het weergeven van recepten. RecipeML is ontworpen om de transfer van recepten via het web te vergemakkelijken. Individuen, restaurants, voedselproducenten en uitgevers kunnen van deze taal gebruik maken om inhoudelijke recepten op te slaan, uit te wisselen en te publiceren. Het uiteindelijke doel is het vergemakkelijken van de transfer van ingrediënten van recepten direct naar het boodschappenlijstje van de consument.

  57. Rijsbergen, C.J. van [1979]
    Information Retrieval

  58. SemanticWeb.org
    Een site die helemaal is gewijd aan het verzamelen van actuele informatie over het semantisch web. Het fungeert als discussieforum voor mensen die in het semantisch web geïnteresseerd zijn.

  59. Semantic Web Workshop
    Teksten van en over de 2e internationale werkgroep over het semantisch web, Hongkong, 1 mei 2001/Stanford, 30-31 juli, 2001.

  60. SGML/XML Users Group Holland
    Een kennisplatform met leden die zich richten op het creëren, delen en propageren van voorhoedekennis over de toepassingsmogelijkheden van SGML/XML.

  61. Soboroff, Ian [1998]
    Agent Based Information Retrieval

  62. Steen, G.J. van der [2001]
    Naar de menselijke maat. Het perspectief van Uitwisselingstalen

  63. UMBC AgentWeb
    Informatie, nieuwsbrieven en discussiefora over intelligente informatie 'agents', intentional agents, software agents, softbots, knowbots, inforbots enz., gepubliceerd door het Laboratory for Advanced Information Technology van de University of Maryland.

  64. Universiteitsbibliotheek - Erasmus Universiteit
    Beleidsplan Wetenschappelijke Informatievoorziening 2003-2005.

  65. Uschold, M. / Grüniger, M. [1996]
    Ontologies: Principles, methods and applications.
    In: Knowledge Engineering Review, 11(2), 1996.

  66. Vickery, B.C. [1997]
    Ontologies.
    In: Journal of Information Science 23(4): 277-86.

  67. Vliet, Eric van der
    Building a Semantic Web Site

  68. WDVL: XML
    Uitstekende documentatie over XML, gepresenteerd door de Web Developer's Virtual Library.

  69. Weibel, Stuart / Miller, Eric [2000]
    An Introduction to Dublin Core

  70. www-rdf-interest
    Een mailing list van W3C voor RDF geïnteresseerden.

  71. XML.org
    Een betrouwbare bron met accurate en actuele informatie over de toepassing van XML in industriële en commerciële settings. Het dient tevens als referentiepunt voor specifieke XML standaarden zoals vokabulairen, DTS's, schema's en naamruimtes.

  72. XML Cover Pages
    Een van de beste online gidsen over XML en SGML. Bevat o.a. een uitstekende SGML/XML Bibliografie. Editor: Robin Cover.

  73. xml.org

  74. xml.com

  75. xml.pagina.nl
    Portal site met XML en SGML links ingedeeld in categorieën en toepassingsgebieden.

Index


Home Onderwerpen Zoek Over ons Doneer Contact

26 September, 2013
Eerst gepubliceerd: Juli, 2001