Wikipedia gaat betrouwbaarheid weergeven

1 september 2009

De online-encyclopedie Wikipedia is van plan om een feature te gaan toevoegen die een indicatie geeft over de betrouwbaarheid van de tekst. Het algoritme gaat ervan uit dat bijdragen betrouwbaarder zijn naarmate ze langer zijn blijven staan. Doordat iedereen kan bijdragen aan Wikipedia, is vaak niet duidelijk hoe betrouwbaar de weergegeven informatie is. Onjuiste informatie wordt meestal snel weer gecorrigeerd, maar wie op een zeker moment een pagina bekijkt, kan op dat moment niet goed bepalen hoe betrouwbaar de daar gegeven informatie is. Om hier iets aan te doen hebben onderzoekers van het Wiki Lab aan de universiteit van Californië het programma WikiTrust gemaakt. Dit bepaalt de betrouwbaarheid van de informatie aan de hand van twee eenvoudige richtlijnen. Ten eerste: hoe langer bepaalde informatie blijft staan, hoe groter de kans dat deze correct is. Ten tweede: bijdragen van een auteur die veel juiste informatie heeft geplaatst zijn waarschijnlijk correct. WikiTrust, dat aan een Wikisite kan worden toegevoegd, bepaalt van elke auteur een betrouwbaarheidsgraad naar aanleiding van de tijdsduur waarop zijn stukken onveranderd online blijven. Op elke pagina krijgt vervolgens de tekst een kleurtje aan de hand van de betrouwbaarheid van de schrijver. Bij erg onbetrouwbare schrijvers is de achtergrond fel oranje, bij meer betrouwbare auteurs wordt het oranje vager, en bij de betrouwbaarste bijdragen is het weer het gewone wit.


'They’ve hit on the fundamentally Darwinian nature of Wikipedia', zegt Wikipedia software ontwikkelaar en wetenschapper Virgil Griffith van CalTech, het California Institute of Technology. Hij was niet betrokken bij het project. 'Everyone’s injecting random crap into Wikipedia, and what people agree with more often sticks around. Crap that people don’t like goes away'. WikiTrust is een extensie van MediaWiki geweest vanaf november 2008, 'meaning that anyone who runs a wiki site has been free to download the code and add the feature to their site'. Nu is besloten door de WikiMedia Foundation, de non-profit organisatie die Wikipedia beheert, om WikiTrust toe te passen op de gehele encyclopedie. 'Online collaboration is becoming more and more central to the way in which knowledge is created and assembled worldwide', zegt computerwetenschapper Luca de Alfaro, die het Wiki Lab leidt. 'There are more and more services that simply cannot exist without some notion of user reputation and trust in the content'. De Alfaro bedacht het systeem toen hij gefrustreerd raakte door het vandalisme op zijn eigen wiki. 'I started to think there has to be some way to give people an incentive to behave in a more productive way', zo zegt hij. 'If something works as well as Wikipedia, you think very hard before proposing to modify it in such a way that everybody has to give comments on everybody else'. En hij vervolgt: 'Since Wikipedia already keeps track of every revision, we realized we could use that data to create a reputation system independent of human input. Machines should work for humans and not the other way around. So if you can get information without bothering people, via clever algorithms, this is much better'. Deze herfst zal er voor geregistreerde gebruikers een tabje met de naam 'Trust' verschijnen. Bij het klikken hierop verschijnen de oranje tinten, die de betrouwbaarheid aangeven, in de tekst. Hoe het systeem in de praktijk zal gaan werken, moet nog worden afgewacht. Duidelijk is wel dat een zware aanslag op de computercapaciteit zal zijn om van ieder woord in de tekst de betrouwbaarheidsscore te gaan bepalen. De onderzoekers zijn er echter van overtuigd dat het programma efficiënt genoeg is om de computers niet te overbelasten. WikiMedia zelf zegt er het volgende van: 'WikiTrust is one of thousands of extensions available within the MediaWiki library. As with other extensions, including flagged revisions, which has been the subject of quite a bit of attention over the past few weeks, extensions are tested and evaluated by members of the volunteer community before being implemented on any of the Foundation’s projects, including Wikipedia. Many of these extensions are part of ongoing research by outside developers and volunteers who want to look at ways of improving the quality of content on Wikipedia and other wikis using MediaWiki. When WikiTrust makes its way through testing and analysis it may be made available as an optional tool that Wikipedia users can activate through their user settings. That timeframe has still not been set. The Foundation is also looking at introducing a number of visible trust/quality metric tools, which may include tools familiar to many users, including ‘rate this article’ tools on Wikipedia pages. These enhancements would be introduced in the spirit of letting readers and editors better understand which articles, facts, or edits need to be reviewed for quality and accuracy'.

Share This:

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.