
Wanneer een oudheidkundige een tekst van Vergilius wil raadplegen, kan hij of zij naar zijn of haar boekenkast of naar een bibliotheek gaan en een editie tevoorschijn halen. Het is echter niet zo eenvoudig als het op het eerste gezicht lijkt: er bestaat namelijk helemaal geen eenduidige uitgave van Vergilius’ werk. Afgezien van het feit dat Vergilius vermoedelijk nog niet klaar was met de Aeneis toen hij stierf: er is er geen originele tekst uit zijn tijd bewaard gebleven. En dit geldt voor de gehele Oudheid en nog lang daarna: er zijn geen originele teksten uit de tijd van de auteur, en zeker geen auteursexemplaren.
Overschrijffouten
Alle teksten uit de oudheid zijn alleen bewaard gebleven omdat zij steeds opnieuw werden overgeschreven, vooral in kloosterbibliotheken. En daar beginnen de problemen: als je overschrijft, ontstaan er fouten. Stel dat een kopiist één fout per bladzijde maakt, maar 10% van de fouten van zijn voorgangers corrigeert. In een tekst van 100 bladzijden heeft het eerste exemplaar 100 fouten, het tweede 190, en het derde al 271.
Renaissancedrukken
Toen de humanisten begonnen met het publiceren van oude teksten in druk, namen zij gewoonlijk een betrekkelijk recent handschrift en lieten het met enkele correcties drukken. Deze correcties waren vaak hun eigen vermoedens of lezingen uit een ander handschrift die beter leken. De humanist Angelo Poliziano en anderen raadpleegden echter de oudste handschriften, met het idee dat alle latere waren afgeleid van het oudste manuscript. Pas later ontstond het idee dat alle manuscripten zouden kunnen afstammen van een verloren gegaan exemplaar, het zogeheten ‘archetype’.
Archetype
Een moderne uitgever probeert de oorspronkelijke tekst zo dicht mogelijk te benaderen door de fouten te elimineren. Dit klinkt makkelijker dan het is. Eigenlijk is het niet mogelijk om de originele tekst uit de Oudheid exact te reconstrueren. Het doel is dus het archetype te reconstrueren, het exemplaar waarvan alle overgebleven exemplaren zijn afgeleid. De oorspronkelijke tekst en het archetype kunnen heel dicht bij elkaar liggen in de tijd, maar er kan ook 1000 jaar tussen zitten. Het archetype kan er nog zijn, maar vaak is het verloren geraakt.
Stamboom
Om te weten hoe de overgeleverde handschriften met elkaar verbonden zijn, is het praktisch om een stemma op te stellen, d.w.z. een stamboom van alle handschriften. Op deze manier kan men alle handschriften uitsluiten die slechts kopieën zijn van oudere manuscripten, maar met meer fouten.
Hier is een fictief stemma: we hebben zeven handschriften (A-D, O, Y en Z). Handschrift Y en Z zijn afgeleid van A en kunnen dus worden uitgesloten. Dan blijven A, B, C, D en O over. De manuscripten A en B, alsmede C en D, vertonen dezelfde soort fouten, zodat zij tot een familie kunnen worden samengevoegd: α en β. Overgeleverde manuscripten zijn doorgaans geschreven met Romeinse hoofdletters, gereconstrueerde families met Griekse letters. Manuscript O kan veel jonger zijn dan Y of Z. Als een manuscript jonger is, is het dus niet noodzakelijk minder interessant. Een gevaar zijn fouten die verschillende keren onafhankelijk van elkaar kunnen zijn ontstaan, vooral typische schrijffouten. Dan lijken handschriften verwant die het niet zijn.
Het is belangrijk te benadrukken dat een stemma niet de werkelijke overleveringsgeschiedenis weergeeft. De meeste manuscripten zijn verloren gegaan. Het is meer een klein takje van een boom waar vele zijtakken aan ontbreken.
Contaminatie
Een groot probleem met een stemma is contaminatie. De manuscripten zijn niet netjes van elkaar gescheiden gebleven. Een kopiist van manuscript Z kan ook manuscript O hebben gezien en enkele correcties in zijn kopie hebben aangebracht. Er is dan een kruisverband tussen Z en O.
Kritische apparaat
Een uitgever noteert de verschillende lezingen die hij of zij heeft gevonden, in het zogenaamde kritische apparaat onderaan de bladzijde van de eigenlijke tekst. Zo kan een lezer zijn keuzes begrijpen en eventueel besluiten dat de tekst anders moet worden gereconstrueerd. De uitgever geeft echter meestal niet alle lezingen uit alle handschriften weer, vooral niet wanneer het om tientallen of honderden handschriften gaat. In dergelijke gevallen is het meestal voldoende te verwijzen naar de lezingen van de andere families.
Kritiek
De romanist Joseph Bédier had veel kritiek op deze methode. Het was hem onder meer opgevallen dat stemmata vaak dichotomisch zijn, d.w.z. dat de takken zich steeds weer in maar twee takken splitsen. Dit lijkt wel al te toevallig te zijn. Voor hem leken de stemmata dus een arbitraire keuze van de uitgever. Hij gaf de voorkeur aan een editie op basis van één goed handschrift. Het probleem van een stamboom is waarschijnlijk bijzonder groot voor romanisten, omdat er vaak enorm veel manuscripten van een werk bestaan, die ook nog eens veel contaminaties hebben, zodat ze zeer moeilijk in een stamboom te plaatsen zijn. Maar je hebt nog steeds een soort stamboom nodig om het beste manuscript te vinden.
Hetzelfde geldt bijvoorbeeld voor de heiligenlevens, die vanaf de Oudheid en gedurende de gehele Middeleeuwen zeer populair waren. Deze werden steeds opnieuw gekopieerd, maar ook weer ingekort en uitgebreid, vaak door verschillende manuscripten met elkaar te vergelijken. In dergelijke gevallen wordt een stemma vrijwel onmogelijk. In het geval van veel teksten uit de klassieke oudheid is deze methode echter succesvol gebleken.
[Oorspronkelijk door Josine Schrickx gepubliceerd op de beëindigde website Grondslagen.net. Meer over de hier beschreven methode, ook wel bekend als de Lachmannmethode, hier.
En nog even dit: zoals u weet heeft Bot Rechts al lang geleden ontdekt dat schoppen tegen “linkse hobby’s” electoraal handig is. Dit keer is het nog wat heftiger dan anders en richt de agitatie zich tegen het Egyptische Museum in Turijn. Teken alstublieft deze petitie.]
Heeft men al geprobeerd met hulp van AI een archetype te reconstrueren? Ik kan me voorstellen dat je alle bekende versies van een document invoert en dat de AI dan daaruit een nieuw document distilleert. Of dat dan beter of slechter is dan menselijke inbreng weet ik niet.
Die AI-techniek is er volgens mij ook. Ik weet alleen niet in hoeverre die vrij beschikbaar is.
Vandaag in de Standaard een interview met filosoof Andreas De Block over zijn nieuwe boek:
https://www.lannoo.be/nl/links-gewoon-slimmer
Kort samengevat (het interview, niet het boek): Aan onze universiteiten zijn beduidend meer linkse dan rechtse lesgevers en onderzoekers. Het is geen probleem dat onderzoekers zich als links of rechts beschouwen en het leidt niet noodzakelijk tot slecht onderzoek. Het is jammer voor de waarheidsvinding dat er een onevenwicht is. De Block, die zichzelf in het centrum met rechtse accenten plaatst, pleit voor meer weerwerk van conservatieve denkers.
Naar aanleiding hiervan zomaar een opmerking:
Ik begrijp het hardnekkig voortleven van de nietszeggende generalisaties “links” en “rechts” niet. Je wordt er nog steeds mee doodgegooid.
Het is juist heel handig! Als iemand op ongespecificeerd links of ongespecificeerd rechts begint te schelden, weet je dat je niet verder hoeft te luisteren.
Persoonlijk kan ik mij moeilijk voorstellen hoe dat rechts of links zijn zich zou vertalen in het doen van wetenschappelijk onderzoek. In heel veel landen, bijvoorbeeld in Frankrijk, begint het rechts/links onderscheid in de politiek te vervagen. Eveneens is in de politiek wat hier links is, in een ander land rechts, Ik herinner mij nog een artikel uit de Nouvel Observateur uit de tijd dat Wim Kok premier was en waar hij nog ‘rechtser’ werd aangemerkt als de Duitse liberalen. Bovendien kunnen ‘linkse’ partijen in een bepaald onderwerp progressief zijn en in een ander conservatief en kan voor de ‘rechtse’ partijen juist het tegenovergestelde gelden.
Een interessant onderwerp vindt u hier:
https://bijnaderinzien.com/2017/02/17/mijnheer-duisenberg-echte-wetenschap-is-helemaal-niet-links/
In allerlei landen is allerlei wetenschappelijk onderzoek per definitie links. Een voorbeeld uit de natuurwetenschappen is hersenonderzoek naar gender.