From: Markus F. <in...@fl...> - 2011-03-16 08:37:56
|
Hallo Stefan nächste Woche kommt Vufind 1.1 raus. Das bringt einiges an praktischen Funktionen mit sich: - OAI - Blättern in der Detailansicht eines Records - Site Map aller Artikel für verbesserte Indexierung durch Google - Modulare Treiber für Look ahead OpenURL ... Ich werde lokal die neuste Version ziehen und alle bisherigen Anpassungen nachvollziehen. Danach erstelle ich einen Patch und installiere das Ganze auf dem Server. Kurzfristig sehe ich für meine Seite auf der technischen Ebene folgende Prioritäten: - Installation Vufind 1.1 - Look ahead Treiber für die EZB schreiben Look ahead OpenURL (grüne Icons "zur Zeitschrift"): http://www.medpilot.de/app/search/search/?type_a=SO&term_a=geriatrie-Journal&operator_b=AND&type_b=FS&term_b=&operator_d=AND&type_d=PY&PYLO=&PYHI= Ich werde versuchen den Treiber so zu gestalten, dass wie bei DAIA, ev. eine IP mitgeschickt werden kann. Wenn das gelingt, hätten die EZB-Teilnehmer sogar eine Anzeige der abonnierten Online-Abos... Ich werde in der nächsten Zeit auch eine Liste aller in bibnet.org vergebenen Schlagwörter generieren, die NICHT in der Liste von Veronika sind. Danach sollte Veronika/die Gruppe alle Schlagwörter entweder in der gemeinsamen Liste einfügen, als Verweis anlegen oder verwerfen. Danach kann man mit einem kleinen Programm alle Schlagwörter in die korrekte Hierarchie setzen oder ggf. in die Lokalschlagworte verbannen. Lokalschlagworte werden auf der Detailkarte nicht angezeigt, sind aber suchbar und man kann auch definieren, ob Sie als Facets erscheinen sollen oder nicht. Ich denke so erhalten wir eine hochgradige Datenkonsistenz, trotz unterschiedlichster Datenquellen. Das Komplexeste daran ist die Arbeit von Veronika / der Gruppe... Bei der Gelegenheit müsste man überlegen, ob man die PSCH-Schlagwörter, die teilweise unter 695 stecken in 650er umwandeln möchte. Das ginge jederzeit blitzschnell... ;-) http://bibnet.org/vufind/Record/vtls000859767/Details#tabnav Die dedupe tools haben neu ein Export-Routine mit der Du beliebige Datenmengen als MarcXML aus der DB schreiben kannst, kombiniert mit einer Suche: http://bibnet.svn.sourceforge.net/viewvc/bibnet/trunk/src/org/bibnet/playground/Export.java?revision=85&view=markup Das ist gar nicht so einfach, weil Du bei grossen Datenmengen (Import oder Export) nicht einfach alles ins Memory lesen und danach verarbeiten kannst. Du musst immer sequentiell lesen oder schreiben, sonst gibt das einen "out of memory" error... Das einzige was auf der Datenmanagement Ebene noch fehlt, bevor ich hier mit der Oberfläche für die Katalogisierung beginnen kann, ist die Synchronisation des Gesamtfeldes marcxml mit den Einzelfeldern. Das Feld "marcxml" braucht es weil Du bei einem Import nie weisst, was an unvorhergesehenen Marc-Feldern daher kommt... Das habe ich bei KOHA abgeguckt. Danach wird es z.B möglich sein ausgewählte CCMed-Daten mit Schlagwörtern anzureichern und die betreffenden Daten ins Set bibnet.org zu verschieben (unter Beibehaltung der CCMed Identität in 001 und 040). Das dürfte eine ziemliche Umstellung/Vereinfachung für den Katalogisieraufwand werden... LiebGruss Markus |