共查询到20条相似文献,搜索用时 31 毫秒
1.
Ingo Schmitt und Stefan Conrad 《Informatik - Forschung und Entwicklung》1999,14(4):218-226
Zusammenfassung. Eine Restrukturierung eines gegebenen Datenbankschemas kann aus unterschiedlichen Gründen notwendig werden. So kann dadurch
z.B. die Verst?ndlichkeit des Schemas verbessert werden. Im Bereich der relationalen Datenbanken steht die Normalisierungstheorie
zur Verfügung, um z.B. Redundanz zu vermeiden. Der Normalisierung liegt dabei ein Begriff der ?quivalenz von Datenbankschemata
zugrunde. Im Bereich der objektorientierten Datenbanken gibt es bislang kaum vergleichbare Ans?tze. In diesem Beitrag pr?sentieren
wir daher einen Ansatz, mit dem Klassenhierarchien in objektorientierten Datenbankschemata in eine „normalisierte” Form transformiert
werden k?nnen. Dazu mu? zun?chst eine extensionale Analyse durchgeführt werden, die die notwendigen Informationen über extensionale
Beziehungen zwischen den gegebenen Klassen liefert. Anschlie?end wenden wir Konzepte der formalen Begriffsanalyse an, um eine
„normalisierte” Klassenhierarchie abzuleiten.
Eingegangen am 16. Januar 1999 / Angenommen am 3. Oktober 1999 相似文献
2.
Zusammenfassung. Dieser Artikel erarbeitet eine formale Bestimmung der Begriffe “elektronischer Vertrag”, seine “Ziele”, “Verpflichtungen”
und seine “verbindliche Aushandlungsphase”. Die hier erarbeiteten Begriffe dienen erstens der Spezifikation elektronischer
Vertr?ge und zweitens der Verifikation lokaler Implementationen von elektronischen Vertragskooperationen. Besonders behandelt
werden die lokale Darstellungen von Vertr?gen und ihre vermittelnde Kommunikation, mehrfache sowie sich überlappende Durchl?ufe
durch eine verbindliche Phase und die Rolle von Beweismitteln. Die Begriffe beruhen auf der Theorie der formalen Sprachen
bzw. der Automaten. Sie werden an einem einfachen Beispiel einer bilateralen Auftragskooperation demonstriert.
Eingegangen am 16. Dezember 1999 / Angenommen am 10. M?rz 2000 相似文献
3.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
4.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
5.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
6.
Alexander Schill Thomas Springer und Thomas Ziegert 《Informatik - Forschung und Entwicklung》2001,16(4):200-212
Zusammenfassung. Die Integration mobiler Rechner in bestehende Netze erfordert eine umfassende Unterstützung. Die Hauptgründe dafür sind die
Vielfalt der eingesetzten Technologien sowie fehlende Konzepte in den bestehenden Systemen. In diesem Artikel werden M?glichkeiten
zur system- und anwendungsseitigen Unterstützung mobiler verteilter Systeme diskutiert. Nach einer kurzen Einführung in die
Problemstellungen des Forschungsgebietes werden Ans?tze für eine systemseitige Unterstützung mobiler Anwendungen und Dienste
anhand einer Softwareplattform beschrieben. Danach wird ein Modell zur Aufteilung mobiler Anwendungen vorgestellt, das verschiedene
system- und anwendungsseitige Unterstützungsmechanismen integriert. Abschlie?end wird das Modell zu einem Ansatz auf Basis
von Software-Komponenten verallgemeinert. Die Darstellung erfolgt anhand von Beispielsystemen, an deren Entwicklung die Autoren
ma?geblich beteiligt waren und sind.
Eingegangen am 31. Januar 2001 / Angenommen am 6. September 2001 相似文献
7.
Wolfgang K?fer Norbert Ritter und Harald Sch?ning 《Informatik - Forschung und Entwicklung》1998,13(1):1-17
Zusammenfassung . Schwerpunkte einer Datenbank-Unterstützung von technischen Entwurfsanwendungen sind eine geeignete Ablaufkontrolle sowie
ein geeignetes Datenmodell. Letzteres mu? Versionen komplexer Objekte verwalten k?nnen. Um aus der Gesamtmenge der in einer
Datenbank enthaltenen Versionen konsistente Einheiten (Mengen ‚kompatibler’ Versionen) hervorheben zu k?nnen, werden geeignete
Konfigurierungskonzepte ben?tigt. Dieses Papier gibt eine Klassifikation verschiedener DB-bezogener Konfigurierungsans?tze,
bewertet diese und begründet damit die Wahl, die im Rahmen des Objekt- und Versionsdatenmodells OVM hinsichtlich des zu unterstützenden
Konfigurierungskonzeptes getroffen wurde. Wir werden argumentieren, da? insbesondere die Flexibilit?t, die das gew?hlte Konzept
sowohl hinsichtlich der Definition von Konfigurationstypen als auch hinsichtlich des Anlegens von Konfigurationen bietet,
zu einer besseren Unterstützung von technischen Entwurfsanwendungen als in bestehenden objekt-orientierten Systemen führt.
Eingegangen am 14. Oktober 1996/Angenommen am 27. Oktober 1997 相似文献
8.
Dirk Platz und Udo Kelter 《Informatik - Forschung und Entwicklung》1997,12(4):196-205
Zusammenfassung. Moderne Software-Entwicklungsumgebungen arbeiten mit einer Vielzahl von Editoren und Anzeigewerkzeugen, wobei der Informationsgehalt
mehrerer Fenster überlappen kann. Wenn nun irgendein Werkzeug Dokumente ?ndert, müssen alle betroffenen Anzeigen korrigiert
werden. Hierzu werden heute in mehrbenutzerf?higen, verteilten Software-Entwicklungsumgebungen überwiegend Kommunikationssysteme
wie z.B. ToolTalk™ eingesetzt. Diese verursachen einen relativ hohen Programmier- und Laufzeitaufwand und sind insofern unsicher,
als Anzeigewerkzeuge nicht von allen Ver?nderungen an den Daten informiert werden, u.a. von ?nderungen durch nicht integrierte
Werkzeuge. Dieses Papier stellt einen Benachrichtigungsmechanismus für Software-Entwicklungsumgebungen vor, der effizient,
leicht benutzbar und sicher ist, sowie seine Implementierung im Objektmanagementsystem H-PCTE.
Eingegangen am 24. Dezember 1996 / Angenommen am 19. September 1997 相似文献
9.
Zusammenfassung. Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren
multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung
unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren
Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen
und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die
Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement
und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung,
die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.
相似文献
10.
Ralph Depke Gregor Engels Katharina Mehner Stefan Sauer und Annika Wagner 《Informatik - Forschung und Entwicklung》1999,14(2):83-94
Zusammenfassung. Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt
zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau
unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert
sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen
wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung
von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung
der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung
und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell
auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch
für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert.
Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999 相似文献
11.
Albrecht Schmidt und Hans-Werner Gellersen 《Informatik - Forschung und Entwicklung》2001,16(4):213-224
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation
auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten
Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene
Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit
Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung
und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf
aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich
eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren
Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur
Vereinfachung der Anwendungsentwicklung beitr?gt.
Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001 相似文献
12.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
13.
Stefanie Rinderle Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2002,17(4):177-197
Zusammenfassung. Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen
einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei
müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen,
etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen
– wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden
sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn
ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit
von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte
(z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage
für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher
Instanzen auf das neue Schema konkret unterstützt werden kann.
ID="*" Diese Arbeit wurde im Rahmen des Projekts „?nderungsmanagement in adaptiven Workflow-Management-Systemen” der Deutschen
Forschungsgemeinschaft (DFG) erstellt. 相似文献
14.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
15.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
16.
Cornelia Haber Jochen Meyer und Ricarda Weber 《Informatik - Forschung und Entwicklung》1998,13(3):122-131
Zusammenfassung. Ziel von MeDoc war der Aufbau eines verteilten Informationsdienstes, über den eine kritische Masse an Informatik-Literatur
im Volltext nachgewiesen, langfristig vorgehalten, recherchiert und beschafft werden kann. Bei einem Teil der angebotenen
Literatur handelt es sich dabei um elektronische Versionen des regul?ren kommerziellen Angebots der beteiligten Verlage. Aus
diesem Grund war ein wichtiges Teilziel von MeDoc die Entwicklung eines Volltextspeichers, der solche kostenpflichtigen Dokumente
abrechenbar und sicher nachweist, liefert und zum Browsen zur Verfügung stellt. Der Artikel beschreibt die Konzeption und
Architektur dieses Volltextspeichers.
Eingegangen am 17. April 1998 / Angenommen am 21. Juli 1998 相似文献
17.
Christoph Gollmick und Uta St?rl 《Informatik - Forschung und Entwicklung》2002,17(4):157-166
Zusammenfassung. Die st?ndig wachsende Menge der in Datenbanksystemen verwalteten Daten und steigende Verfügbarkeitsanforderungen verlangen
die Entwicklung immer schnellerer und effizienterer Backup- und Re-covery-Verfahren. Die Ausnutzung von Parallelit?t beim
Backup und Restore ist dabei einer von verschiedenen “intelligenten” L?sungsans?tzen, die nicht allein auf schnellere Hardware
setzen, sondern helfen, eine bestehende Infrastruktur optimal auszunutzen. Der Beitrag stellt ein Puffer-Proze?-Modell vor,
mit dessen Hilfe parallele Backup- und Restore-Algorithmen systematisch abgeleitet werden k?nnen. Eine definierte Auswahl
von Algorithmen wird anhand praxisbezogener Kriterien bewertet und klassifiziert (inklusive Einordnung der wichtigsten DBMS-Produkte).
Me?ergebnisse prototypisch implementierter Algorithmen schlie?lich belegen die Anwendbarkeit des Puffer-Proze?-Modells zur
Implementierung effizienter paralleler Backup- und Restore-Algorithmen.
Eingegangen am 31. Januar 2002 / Angenommen am 5. Juli 2002 相似文献
18.
Zusammenfassung. Im Zentrum der Betrachtungen zum DNA-Computing steht die Frage nach den Chancen und Grenzen dieses neuen Berechnungsmodells,
nachdem in den letzten Jahren eine rasante Entwicklung auf das Thema aufmerksam machte. Neben beachtlichen theoretischen Untersuchungen
zum “Rechnen im Reagenzglas” werden auch laborpraktische Implementierungen favorisiert. An der TU Dresden wurde in interdisziplin?rer
Arbeit ein Integer-Rucksackproblem mittels eines DNA-Algorithmus im Labor gel?st und dabei eine Vielzahl molekularbiologischer
Operationen analysiert. Mit Hilfe dieses Satzes von Operationen gelang eine universelle und labornahe Modellierung des DNA-Computing.
Hierbei angewandte Techniken und Methoden werden vorgestellt und bewertet. Die Beschreibung des DNA-Algorithmus zeigt, wie
sich Einzeloperationen vorteilhaft zu Operationsfolgen zusammensetzen lassen und gemeinsam mit einer geeigneten DNA-Kodierung
der Eingangsdaten zur L?sung des Problems im Labor führen. Erstmalig wurden hierbei natürliche Zahlen verarbeitet. Die Arbeitsgemeinschaft
DNA-Computing Dresden konzentriert sich auf Aufgabenstellungen, die formale Modelle des DNA-Computing mit überzeugenden Laborimplementierungen
verbinden.
Eingegangen am 14. Februar 2000 / Angenommen am 26. Oktober 2000 相似文献
19.
Dirk Meyerhoff Michael Timpe und Dirk Huberty 《Informatik - Forschung und Entwicklung》2000,15(3):133-139
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs-
(QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie
Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung
und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen
eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag
ab.
Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000 相似文献
20.
D. Zerfowski H. Grabowski R. Krempien S. Ha?feld und M. Walz 《Informatik - Forschung und Entwicklung》1999,14(1):2-8
Zusammenfassung. Medizinische Bilddaten durchlaufen von der Datenakquisition bis zur Diagnose beziehungsweise Operationsplanung die verschiedensten
Verarbeitungsschritte. Die frühzeitige Kompensation auftretender St?rungen in dieser Verarbeitungskette bietet den anschlie?end
angewandten Algorithmen deutlich verbessertes Datenmaterial. In diesem Zusammenhang werden Verfahren zur Kompensation von
Bewegungs- und Metallartefakten in tomographischen Aufnahmen vorgestellt, sowie neue Methoden der modellbasierten Registrierung
von Datens?tzen unterschiedlicher Modalit?ten pr?sentiert.
Eingegangen am 11. Juli 1998 / Angenommen am 2. November 1998 相似文献