共查询到20条相似文献,搜索用时 15 毫秒
1.
Mathias Weske Jens Hündling Dominik Kuropka und Hilmar Schuschel 《Informatik - Forschung und Entwicklung》1998,13(4):179-195
Zusammenfassung. Dieser Beitrag enth?lt die wesentlichen konzeptionellen überlegungen zur Entwicklung eines flexiblen Workflow-Management-Systems.
Ausgehend von einer Diskussion m?glicher Modellierungsalternativen wird unter Verwendung objektorientierter Modellierungstechniken
ein Workflow-Meta-Schema entwickelt, das die relevanten Entit?ten klassifiziert und ihre Beziehungen abbildet. Anhand eines
Beispiels werden die getroffenen Entwurfentscheidungen ausführlich begründet. Schlie?lich werden Zust?nde und Zustandsüberg?nge
von Workflow-Instanzen beschrieben, und es wird diskutiert, wie dynamische Ver?nderungen von Workflows zur Laufzeit durchgeführt
werden k?nnen, um laufende Workflows dynamisch an ver?nderte Umweltbedingungen anzupassen.
Eingegangen am 20. Dezember 1997 / Angenommen am 24. Juli 1998 相似文献
2.
Bernhard Westfechtel 《Informatik - Forschung und Entwicklung》2001,16(3):125-144
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t
kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten
und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken
von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen)
werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation
generiert, die auf programmierten Graphersetzungsregeln basiert.
Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001 相似文献
3.
4.
Dirk Meyerhoff Michael Timpe und Dirk Huberty 《Informatik - Forschung und Entwicklung》2000,15(3):133-139
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs-
(QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie
Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung
und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen
eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag
ab.
Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000 相似文献
5.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
6.
Stefan Conrad 《Informatik - Forschung und Entwicklung》2002,17(3):101-111
Zusammenfassung. Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung
des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein
integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige
Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der
Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben,
bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken
und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die
aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen
schlie?t dieser Beitrag.
Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002 相似文献
7.
8.
Zusammenfassung. Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten
Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt
die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm,
das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt
eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man
zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne
alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment.
Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter
Experimente in der Softwaretechnik.
Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999 相似文献
9.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
10.
Steffen Skatulla Ralf Schaarschmidt Peter Pistor und Klaus Küspert 《Informatik - Forschung und Entwicklung》2000,15(3):161-170
Zusammenfassung. Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln.
Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs,
welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs
der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die
klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige
Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge
bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog
(das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema
geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer
solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer
prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit
wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser
konsequent normkonformen Gestalt leider immer noch nicht anzutreffen.
Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000 相似文献
11.
Dietrich Boles Markus Dreger Kai Gro?johann Cornelia Haber Andreas Kusserow Stefan Lohrum Dirk Menke Jochen Meyer Gerhard M?ller und Ricarda Weber 《Informatik - Forschung und Entwicklung》1998,13(3):110-121
Zusammenfassung. Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und
Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver
gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation
im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen,
verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem
Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben.
Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998 相似文献
12.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
13.
H. Gründer K. Geihs T. Knape und F. Baumert 《Informatik - Forschung und Entwicklung》1998,13(1):26-37
Zusammenfassung. Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten
Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund.
Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t,
der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen
resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist.
Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und
konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne
auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept
für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen
demonstriert.
Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998 相似文献
14.
Jens Krinke Torsten Robschink und Gregor Snelting 《Informatik - Forschung und Entwicklung》1999,14(2):62-73
Zusammenfassung. Die Physikalisch-Technische Bundesanstalt mu? alle eichpflichtigen Me?ger?te prüfen. Da heute fast jedes Me?ger?t durch Software
gesteuert wird, mu? sichergestellt werden, da? der Datenpfad vom Sensoreingang zur Anzeige (Eichpfad) nicht durch externe Faktoren beeinflu?t werden kann.
Das VALSOFT-Werkzeug erkennt, analysiert und visualisiert Beeinflussungen der Eichpfade. Grundlage der Analyse sind Program-Slicing und Constraint-Solving. Zu beliebigen Programmpunkten (z. B. Me?wertausgaben) k?nnen diejenigen Anweisungen bestimmt werden, die diesen Punkt beeinflussen
(sog. Slice). Zus?tzlich k?nnen genaue Bedingungen berechnet werden, unter denen verd?chtige Datenflüsse stattfinden (sog.
Pfadbedingungen). Anwendungen in anderen sicherheitskritischen Bereichen sind ohne weiteres m?glich.
Eingegangen am 3. November 1998 / Angenommen am 23. M?rz 1999 相似文献
15.
Karsten Weihe 《Informatik - Forschung und Entwicklung》1998,13(2):61-71
Zusammenfassung. In diesem Artikel wird ein Konzept besprochen, mit dem flexible Algorithmen zur Auswertung von Anfragen an tabellarische
Datenstrukturen typsicher in objektorientierten Programmiersprachen implementiert werden k?nnen. Kernpunkt ist eine strikte
Trennung zwischen dem Zugriff auf Zeilen und Spalten. Gegenüber einem reinem Iteratormodell werden Anwendungsprogramme damit
nicht nur von der internen Organisation der zugrundeliegenden Sequenzen entkoppelt, sondern auch von den Tupeltypen der Tabellen.
Dadurch wird es m?glich, hohe Laufzeitflexibilit?t mit weitgehender statischer Typsicherheit zu verbinden.
Eingegangen am 1. August 1997 / Angenommen am 7. M?rz 1998 相似文献
16.
Theo H?rder und Klaudia Hergula 《Informatik - Forschung und Entwicklung》2002,17(3):135-148
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration
nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt
werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf
Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form
der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache
eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme
zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem
– an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu
erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung
als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur
vermittelt.
Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002 相似文献
17.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
18.
Frank Leymann 《Informatik - Forschung und Entwicklung》1997,12(2):82-90
Zusammenfassung. Aus der Verwendung von Workflow-Management-Systemen in der Praxis ergeben sich drei wesentliche Anforderungen an die Transaktionsunterstützung
für Workflows: Zun?chst mu? das WFMS selbst Manipulationen seiner eigenen Ressourcen unter Transaktionsschutz durchführen.
Weiterhin ist die M?glichkeit des gesicherten Aufrufs von Transaktionen und deren Gruppierung zu verteilten Transaktionen
zu erm?glichen. Schlie?lich ist die Unterstützung von langen Transaktionen zu gew?hrleisten, die sich aus der Semantik der
abgebildeten Gesch?ftsprozesse ergeben.
Eingegangen am 10. September 1996 / Angenommen am 17. Februar 1997 相似文献
19.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer und S. Hagl 《Informatik - Forschung und Entwicklung》1999,14(1):16-23
Zusammenfassung. Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen.
Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999 相似文献