共查询到20条相似文献,搜索用时 15 毫秒
1.
Wolfgang K?fer Norbert Ritter und Harald Sch?ning 《Informatik - Forschung und Entwicklung》1998,13(1):1-17
Zusammenfassung . Schwerpunkte einer Datenbank-Unterstützung von technischen Entwurfsanwendungen sind eine geeignete Ablaufkontrolle sowie
ein geeignetes Datenmodell. Letzteres mu? Versionen komplexer Objekte verwalten k?nnen. Um aus der Gesamtmenge der in einer
Datenbank enthaltenen Versionen konsistente Einheiten (Mengen ‚kompatibler’ Versionen) hervorheben zu k?nnen, werden geeignete
Konfigurierungskonzepte ben?tigt. Dieses Papier gibt eine Klassifikation verschiedener DB-bezogener Konfigurierungsans?tze,
bewertet diese und begründet damit die Wahl, die im Rahmen des Objekt- und Versionsdatenmodells OVM hinsichtlich des zu unterstützenden
Konfigurierungskonzeptes getroffen wurde. Wir werden argumentieren, da? insbesondere die Flexibilit?t, die das gew?hlte Konzept
sowohl hinsichtlich der Definition von Konfigurationstypen als auch hinsichtlich des Anlegens von Konfigurationen bietet,
zu einer besseren Unterstützung von technischen Entwurfsanwendungen als in bestehenden objekt-orientierten Systemen führt.
Eingegangen am 14. Oktober 1996/Angenommen am 27. Oktober 1997 相似文献
2.
Dadurch, dass Literaturnachweise und Publikationen zunehmend in elektronischer und auch vernetzter Form angeboten werden, haben Anzahl und Größe der von wissenschaftlichen Bibliotheken angebotenen Datenbanken erheblich zugenommen. In den verbreiteten Metasuchen über mehrere Datenbanken sind Suchen mit natürlichsprachlichen Suchbegriffen heute der kleinste gemeinsame Nenner. Sie führen aber wegen der bekannten Mängel des booleschen Retrievals häufig zu Treffermengen, die entweder zu speziell oder zu lang und zu unspezifisch sind. Die Technische Fakultät der Universität Bielefeld und die Universitätsbibliothek Bielefeld haben einen auf Fuzzy- Suchlogik basierenden Rechercheassistenten entwickelt, der die Suchanfragen der Benutzer in Teilsuchfragen an die externen Datenbanken zerlegt und die erhaltenen Teilsuchergebnisse in einer nach Relevanz sortierten Liste kumuliert. Es ist möglich, Suchbegriffe zu gewichten und durch Fuzzy- Aggregationsoperatoren zu verknüpfen, die auf der Benutzeroberfläche durch natürlichsprachliche Fuzzy-Quantoren wie möglichst viele, einige u.a. repräsentiert werden. Die Suchparameter werden in der intuitiv bedienbaren einfachen Suche automatisch nach heuristischen Regeln ermittelt, können in einer erweiterten Suche aber auch explizit eingestellt werden. Die Suchmöglichkeiten werden durch Suchen nach ähnlichen Dokumenten und Vorschlagslisten für weitere Suchbegriffe ergänzt. Wir beschreiben die Ausgangssituation, den theoretischen Ansatz, die Benutzeroberfläche und berichten über eine Evalution zur Benutzung und einen Vergleichstest betreffend die Effizienz der Retrievalmethodik. 相似文献
3.
Zusammenfassung. Dadurch, dass Literaturnachweise und Publikationen zunehmend in elektronischer und auch vernetzter Form angeboten werden, haben Anzahl und Größe der von wissenschaftlichen Bibliotheken angebotenen Datenbanken erheblich zugenommen. In den verbreiteten Metasuchen über mehrere Datenbanken sind Suchen mit natürlichsprachlichen Suchbegriffen heute der kleinste gemeinsame Nenner. Sie führen aber wegen der bekannten Mängel des booleschen Retrievals häufig zu Treffermengen, die entweder zu speziell oder zu lang und zu unspezifisch sind. Die Technische Fakultät der Universität Bielefeld und die Universitätsbibliothek Bielefeld haben einen auf Fuzzy- Suchlogik basierenden Rechercheassistenten entwickelt, der die Suchanfragen der Benutzer in Teilsuchfragen an die externen Datenbanken zerlegt und die erhaltenen Teilsuchergebnisse in einer nach Relevanz sortierten Liste kumuliert. Es ist möglich, Suchbegriffe zu gewichten und durch Fuzzy- Aggregationsoperatoren zu verknüpfen, die auf der Benutzeroberfläche durch natürlichsprachliche Fuzzy-Quantoren wie möglichst viele, einige u.a. repräsentiert werden. Die Suchparameter werden in der intuitiv bedienbaren einfachen Suche automatisch nach heuristischen Regeln ermittelt, können in einer erweiterten Suche aber auch explizit eingestellt werden. Die Suchmöglichkeiten werden durch Suchen nach ähnlichen Dokumenten und Vorschlagslisten für weitere Suchbegriffe ergänzt. Wir beschreiben die Ausgangssituation, den theoretischen Ansatz, die Benutzeroberfläche und berichten über eine Evalution zur Benutzung und einen Vergleichstest betreffend die Effizienz der Retrievalmethodik.CR Subject Classification:
H.3.3, H.3.5Eingegangen am 3. März 2004 / Angenommen am 19. August 2004, Online publiziert am 18. Oktober 2004 相似文献
4.
Zusammenfassung. Anhand zweier Anwendungsbeispiele aus der Induktiven Logischen Programmierung (ILP) wird die Fragestellung des Erlernens von Klassifikatoren für relational strukturierte Beispiele betrachtet. Es wird auf wesentliche Techniken und Fragen des graphbasierten und logischen Lernens, insbesondere auf Fragen des Aufwands eingegangen. Darauf aufbauend wird das Verfahren Indigo zur effizienten graphentheoretischen Transformation des relationalen in ein merkmalsbasiertes Lernproblem vorgestellt, welches den Einsatz von klassischen Lernverfahren wie CAL3 oder ID3 erlaubt. Am Beispiel von Indigo wird gezeigt, daß spezifisch graphentheoretische Ansätze und Algorithmen einen wertvollen Beitrag zur Behandlung von relationalen Lernproblemen erbringen können, der mit rein logischen Methoden, wie sie derzeit in der ILP untersucht werden, nicht entsprechend erzielt werden kann. Eine Aufgabenstellung dieser Arbeit ist deshalb die Gegenüberstellung von graphbasierten und logischen Lerntechniken am Beispiel des hybriden Lernverfahrens Tritop, welches Grundideen aus der Graphentheorie in einem logischen Gewand verwirklicht. Tritop verwendet die sog. a\alpha-Subsumtion, eine Spezialisierung der bekannten q\theta-Subsumtion, zur Klassifikation von Beispielen. Neben den beiden Lernverfahren gehen wir auf die effiziente Konstruktion von Klassenprototypen mit einem konnektionistischen Verfahren ein. Abstract. In this article, we discuss the problem of learning a classifier for relational data with two application examples from Inductive Logic Programming (ILP). We present important techniques and questions of graph based and logical learning, especially its computational complexity. Based on this discussion, the learning system Indigo is described, which relies on the efficient graph based transformation of the relational learning task into a feature based problem, which can be solved with classical feature based methods like CAL3 or ID3. Using Indigo as an example, it can be seen that graph theoretical approaches can make an important contribution to relational machine learning, that cannot be achieved in the same way with logical methods stemming from the field of ILP. Therefore, one concern of this work is the comparison of graph theoretical and logical learning methods. This is done by describing the hybrid learning system Tritop that uses graph theoretical methods together with a logical notation and ILP concepts like subsumtion of clauses. Tritop uses the so called a\alpha-subsumption, a restriction of the well known q\theta-subsumption. As an extension of the two learning systems, we also discuss the efficient construction of class prototypes using a neual network. 相似文献
5.
6.
J. Raczkowsky J. Münchenberg I. Bertovic und C. Burghart 《Informatik - Forschung und Entwicklung》1999,14(1):24-35
Zusammenfassung. In industriellen Anwendungen bew?hren sich Roboter durch ihre hohe Pr?zision und Wiederholgenauigkeit. Ihr Einsatz in neuen
Gebieten, wie z.B. in der Chirurgie unterliegt aber anderen Randbedingungen. Die Datenakquisition und Planung jedes Eingriffs
mu? individuell für einen Patienten ausgeführt werden. Die pr?operative Planung einer Operation auf den komplexen Freiformfl?chen
des Patienten ist nur mit der Unterstützung eines rechnerbasierten Planungssystems durchführbar. Durch eine integrierte intraoperative
Instrumentennavigation wird sichergestellt, da? die geplanten Vorg?nge auch geometrisch richtig ausgeführt werden. Eine prototypische
Roboterarbeitszelle dient zur Evaluierung der untersuchten Methoden und entwickelten Subsysteme. Die vorgestellten Arbeiten
finden im Rahmen des Sonderforschungsbereiches 414: “Rechner- und sensorgestützte Chirurgie” statt, der eine enge interdisziplin?re
Zusammenarbeit zwischen Ingenieuren, Medizinern und Naturwissenschaftlern erm?glicht.
Eingegangen am 11. Juli 1998 / Angenommen am 21. Januar 1999 相似文献
7.
Matthias Bender Sebastian Michel Gerhard Weikum und Christian Zimmer 《Informatik - Forschung und Entwicklung》2005,20(3):152-166
Zusammenfassung In diesem Artikel wird MINERVA pr?sentiert, eine prototypische Implementierung einer verteilten Suchmaschine basierend auf
einer Peer-to-Peer (P2P)-Architektur. MINERVA setzt auf die in der P2P-Welt verbreitete Technik verteilter Hash-Tabellen auf
und benutzt diese zum Aufbau eines verteilten Verzeichnisses. Peers in unserem Ansatz entsprechen v?llig autonomen Benutzern mit ihren lokalen Suchm"oglichkeiten, die bereit sind, ihr lokales
Wissen und ihre lokalen Suchm?glichkeiten im Rahmen einer Kollaboration zur Verfügung zu stellen. Wir formalisieren unsere
Systemarchitektur und beschreiben das zentrale Problem einer effizienten Suche nach vielversprechenden Peers für eine konkrete
Anfrage innerhalb des Verbundes. Wir greifen dabei auf existierende Methoden zurück and passen diese an unseren Systemkontext
an. Wir pr?sentieren Experimente auf realen Daten, die verschiedene dieser Ans?tze vergleichen. Diese Experimente zeigen,
dass die Qualit?t der Ans?tze variiert und untermauern damit die Wichtigkeit und den Einfluss einer leistungsstarken Methode
zur Auswahl guter Datenbanken. Unsere Experimente deuten an, dass eine geringe Anzahl sorgf?ltig ausgew?hlter Datenbanken
typischerweise bereits einen Gro?teil aller relevanten Ergebnisse des Gesamtsystems liefert.
This paper presents the MINERVA project that protoypes a distributed search engine based on P2P techniques. MINERVA is layered on top of a Chord-style overlay network and uses a powerful crawling, indexing, and search engine on every autonomous peer. We formalize our system model and identify the problem of efficiently selecting promising peers for a query as a pivotal issue. We revisit existing approaches to the database selection problem and adapt them to our system environment. Measurements are performed to compare different selection strategies using real-world data. The experiments show significant performance differences between the strategies and prove the importance of a judicious peer selection strategy. The experiments also present first evidence that a small number of carefully selected peers already provide the vast majority of all relevant results.
CR Subject Classification H.4,H.3.3,H3.4 相似文献
8.
Matthias Bender Sebastian Michel Gerhard Weikum Christian Zimmer 《Informatik - Forschung und Entwicklung》2005,12(5):152-166
In diesem Artikel wird MINERVA pr?sentiert, eine prototypische Implementierung einer verteilten Suchmaschine basierend auf
einer Peer-to-Peer (P2P)-Architektur. MINERVA setzt auf die in der P2P-Welt verbreitete Technik verteilter Hash-Tabellen auf
und benutzt diese zum Aufbau eines verteilten Verzeichnisses. Peers in unserem Ansatz entsprechen v?llig autonomen Benutzern mit ihren lokalen Suchm"oglichkeiten, die bereit sind, ihr lokales
Wissen und ihre lokalen Suchm?glichkeiten im Rahmen einer Kollaboration zur Verfügung zu stellen. Wir formalisieren unsere
Systemarchitektur und beschreiben das zentrale Problem einer effizienten Suche nach vielversprechenden Peers für eine konkrete
Anfrage innerhalb des Verbundes. Wir greifen dabei auf existierende Methoden zurück and passen diese an unseren Systemkontext
an. Wir pr?sentieren Experimente auf realen Daten, die verschiedene dieser Ans?tze vergleichen. Diese Experimente zeigen,
dass die Qualit?t der Ans?tze variiert und untermauern damit die Wichtigkeit und den Einfluss einer leistungsstarken Methode
zur Auswahl guter Datenbanken. Unsere Experimente deuten an, dass eine geringe Anzahl sorgf?ltig ausgew?hlter Datenbanken
typischerweise bereits einen Gro?teil aller relevanten Ergebnisse des Gesamtsystems liefert. 相似文献
9.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
10.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
11.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer Annika Wagner 《Informatik - Forschung und Entwicklung》1999,2(3):83-94
Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. 相似文献
12.
Thomas Bauer und Peter Dadam 《Informatik - Forschung und Entwicklung》1999,14(4):203-217
Zusammenfassung. In unternehmensweiten Workflow-Management-Systemen (WfMS) kann die von der WF-Engine zu bew?ltigende Last sehr gro? werden.
Au?erdem werden hohe Anforderungen an die Verfügbarkeit eines solchen Systems gestellt. Deshalb wurden in der Literatur zahlreiche
Architekturen für skalierbare WfMS vorgeschlagen, die auf unterschiedlichen Verteilungsmodellen für die WF-Engine basieren.
Im vorliegenden Beitrag werden diese Verteilungsmodelle analysiert, verglichen und klassifiziert. Aufbauend auf diese Klassifikation
wird für zwei Beispielszenarien die bei den verschiedenen Verteilungsmodellen entstehende Last simuliert und verglichen.
Eingegangen am 12. M?rz 1999 / Angenommen am 8. Oktober 1999 相似文献
13.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
14.
Olaf Herden und Arne Harren 《Informatik - Forschung und Entwicklung》2004,19(2):87-96
Zusammenfassung. Zusammenfassung Der Softwaremarkt für Data-Warehouse-Systeme hat in den letzten Jahren stark zugenommen. Da Standards fehlen, bringen Softwaresysteme jeweils eigene multidimensionale Datenmodelle und (physische) Entwurfswerkzeuge mit, sodass der Entwurf von Data-Warehouse-Datenbanken verfrüht auf die eingesetzten Systeme zugeschnitten ist. In diesem Beitrag präsentieren wir ein werkzeuggestütztes Entwurfsvorgehen, das ausgehend von einem Drei-Ebenen-Entwurf die zielplattformunabhängige, konzeptionelle Modellierung multidimensionaler Data-Warehouse-Schemata und anschliesend eine Transformation und Optimierung dieser Schemata für konkrete Zielplattformen ermöglicht. Durch die konzeptionelle Modellierung wird gewährleistet, dass Implementierungsdetails nicht zu früh in den Entwurfsprozess einfliesen und stattdessen fachliche Anforderungen im Vordergrund stehen.CR Subject Classification:
D.2.2, H.2.1Arne Harren: Die hier beschriebene Arbeit entstand während unserer gemeinsamen Tätigkeit am Oldenburger Forschungsinstitut OFFIS (http: //www.offis.de).Eingegangen am 25. Juli 2003 / Angenommen am 1. Juni 2004, Online publiziert 6. September 2004 相似文献
15.
A. Pfitzmann A. Schill A. Westfeld G. Wicke G. Wolf J. Z?llner 《Informatik - Forschung und Entwicklung》1999,15(1):95-108
Wir stellen eine prototypische Implementierung einer Sicherheitsarchitektur vor. Sie unterstützt Nutzer und Entwickler verteilter
Anwendungen bei der Umsetzung bzw. Integration von mehrseitiger Sicherheit. Nutzer k?nnen Schutzziele wie Vertraulichkeit,
Anonymit?t, Integrit?t und Zurechenbarkeit anwendungsbezogen formulieren und ihnen zugeordnete kryptographische Mechanismen
konfigurieren. Der konkrete Schutz einer Kommunikation über Datennetze wird zwischen den Partnern ausgehandelt. Heterogenen
Anforderungen der Nutzer bzw. Applikationen und heterogenen Eigenschaften der Schutzmechanismen wird durch Architekturkomponenten
für Konfigurierung und Aushandlung sowie sog. Sicherheitsgateways Rechnung getragen. Die Architektur setzt jeweils lokal sichere
Basissysteme voraus und erm?glicht darauf aufbauend flexible mehrseitige Sicherheit für verteilte Anwendungen. 相似文献
16.
Wolfgang Reif 《Informatik - Forschung und Entwicklung》1999,14(4):193-202
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden
heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender
Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch
neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen
der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits-
und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden
eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden.
Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden
und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der
aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert.
Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999 相似文献
17.
Mario Winter 《Informatik - Forschung und Entwicklung》2000,15(3):121-132
Zusammenfassung. Bei der iterativen, inkrementellen Software-Entwicklung werden Klassen sukzessive spezifiziert, implementiert bzw. ge?ndert
oder erweitert, klassengetestet und zu einem ausführbaren Anwendungssystem integriert. Integrations- und Regressionstest stellen
dabei besonders wichtige und h?ufig ausgeführte Testaktivit?ten dar, die zudem aufgrund der vielf?ltigen Interaktionsm?glichkeiten
in objektorientierten Programmen sehr komplex sind. Integrations- und Regressionstest werden in der Literatur stets separat
behandelt, obwohl sie durchaus ?hnliche Teilaktivit?ten beinhalten. Bestehende Ans?tze zum objektorientierten Integrationstest
betrachten entweder strukturelle oder verhaltensorientierte Systembeschreibungen. In diesem Beitrag stellen wir das Klassen-Botschaftsdiagramm
(KBD) vor, ein Struktur und Verhalten objektorientierter Programme gleicherma?en berücksichtigendes interaktionsbasiertes
(Test-)Modell. Wir skizzieren Algorithmen zur ?nderungsanalyse, Ableitung einer Integrationsstrategie und Auswahl von Regressionstestf?llen
nach der Modifikation bestehender Klassen. Abschlie?end werden die Ergebnisse einiger mit Smalltalk-80 Klassen durchgeführter
Experimente zur Evaluierung des Verfahrens vorgestellt.
Eingegangen am 14. Dezember 1999 / Angenommen am 19. Juni 2000 相似文献
18.
Steffen Skatulla Ralf Schaarschmidt Peter Pistor und Klaus Küspert 《Informatik - Forschung und Entwicklung》2000,15(3):161-170
Zusammenfassung. Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln.
Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs,
welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs
der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die
klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige
Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge
bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog
(das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema
geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer
solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer
prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit
wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser
konsequent normkonformen Gestalt leider immer noch nicht anzutreffen.
Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000 相似文献
19.
Steffen Skatulla Ralf Schaarschmidt Peter Pistor Klaus Küspert 《Informatik - Forschung und Entwicklung》2000,22(2):161-170
Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln. Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs, welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog (das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser konsequent normkonformen Gestalt leider immer noch nicht anzutreffen. 相似文献
20.
Christoph Gollmick und Uta St?rl 《Informatik - Forschung und Entwicklung》2002,17(4):157-166
Zusammenfassung. Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen
die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim
Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware
setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor,
mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl
von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte).
Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur
Implementierung effizienter paralleler Backup- und Restore-Algorithmen.
Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002 相似文献