首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
Zusammenfassung.   Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS) eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht. Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001  相似文献   

2.
Zusammenfassung.   In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen, die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen. Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver Logik basieren. Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998  相似文献   

3.
Zusammenfassung.   Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001  相似文献   

4.
Zusammenfassung.   Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund. Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t, der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist. Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen demonstriert. Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998  相似文献   

5.
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs- (QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag ab. Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000  相似文献   

6.
Zusammenfassung.   Mit der zunehmenden Verbreitung mobiler Endger?te w?chst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen h?ufig Probleme wie geringe Bandbreite, gro?e Verz?gerungen oder Verbindungsausf?lle auf. Hoarding-Verfahren versuchen diese Probleme zu l?sen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu müssen sie jedoch vorhersagen, welche Informationen der Benutzer ben?tigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren vor, das für diese Vorhersage die Ortsabh?ngigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen, wird der Speicherplatz auf dem Endger?t dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden. Eingegangen am 2. Februar 2001 / Angenommen am 1. Juni 2001  相似文献   

7.
Zusammenfassung.   Industrielle Konfigurationsprozesse sind, bedingt durch die vorherrschende Variantenvielfalt, sehr komplex. Aufgrund der inh?renten Potentiale ist die Realisierung von effizienten, flexiblen Konfigurationsprozessen ein zentrales Ziel vieler Unternehmen. Wir haben einen Ansatz für die Konfiguration und Rekonfiguration von Produkten entwickelt, der auf Constraint-basierter Modellierung über endlichen Dom?nen basiert. Das auf diesem Ansatz beruhende System ConBaCon deckt eine breite Palette von Konfigurationsproblemen ab und erm?glicht eine effiziente L?sung, die sowohl automatisch als auch gesteuert durch hoch flexible Nutzerinteraktion erfolgen kann. Wendet man das System jedoch auf gro?e Konfigurationsprozesse an, so treten Performanzprobleme auf. Als zwei wesentliche Modellerweiterungen, die diesem Mangel entgegenwirken, stellen wir in dieser Arbeit einerseits eine Modell-Clusterung und andererseits die Behandlung gro?er Netze arithmetischer Constraints vor. Eingegangen am 11. Februar 2002 / Angenommen am 18. Juli 2002  相似文献   

8.
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt. Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998  相似文献   

9.
Zusammenfassung.   Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen, verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben. Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998  相似文献   

10.
Zusammenfassung. Wissenschaftler schreiben ihre Arbeiten schon seit langem mit Hilfe von Textsystemen. Noch für 1989 jedoch belegen Studien, da? Verlage eher selten diese Vorlagen elektronisch übernommen und weiterverarbeitet haben. Erst recht rar waren Publikationen in elektronischer Form. Hier zeichnet sich ein Umbruch ab, bedingt nicht zuletzt durch neue verteilte Informationsdienste im Internet, die es den Autoren erm?glichen, selbst und unmittelbar als Informationsanbieter zu agieren. Diese Entwicklung wird hier im Rahmen der besonderen Gegebenheiten wissenschaftlichen Publizierens dargestellt und analysiert. Der Beitrag gibt einen überblick über Basistechnologie, Werkzeuge und Modelle elektronischen Publizierens, er?rtert die neuen M?glichkeiten insbesondere des Online-Publizierens und zeigt auf, wo die heutigen Werkzeuge zu kurz greifen. Der Schwerpunkt liegt auf wissenschaftlichen Zeitschriften. Eingegangen am 25. August 1995 / Angenommen am 9. Oktober 1995  相似文献   

11.
Zusammenfassung.   Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut. Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert, hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut, die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt. Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998  相似文献   

12.
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen) werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation generiert, die auf programmierten Graphersetzungsregeln basiert. Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001  相似文献   

13.
14.
Zusammenfassung.   Die intelligente Ressourcenadaption ist eine der gro?en Herausforderungen für die n?chste Generation mobiler Navigationssysteme. Da man typischerweise mehrere Fortbewegungsarten oder Verkehrsmittel kombinieren muss, um an einen Zielort zu gelangen, muss sichergestellt werden, dass mobile, allgegenw?rtige Navigationshilfen dies über eine jeweils situationsangepasste Benutzerschnittstelle unterstützen. Der notwendige Wechsel zwischen verschiedenen Positionierungstechnologien soll für den Endbenutzer m?glichst unbemerkt bleiben. Im folgenden wird ein hybrides Personennavigationssystem vorgestellt, das die in bestimmten Fortbewegungssituationen verfügbaren Positionierungstechnologien und deren Genauigkeit optimal nutzt, um die Pr?sentation der Wegbeschreibung auf verschiedene Endger?te und Ausgabemodalit?ten sowie die kognitive Ressourcenlage des Benutzers zu adaptieren. Eingegangen am 28. Februar 2001 / Angenommen am 8. August 2001  相似文献   

15.
Zusammenfassung. In mobilen Systemen findet Kontext zunehmend Berücksichtigung, um Komponenten mit Informationen zur umgebenden Situation auszustatten. Dieser Beitrag führt ein neues semantisches Modell und eine Architektur für die Nutzung von Kontext in verteilten Systemen ein. Ausgangspunkt ist die Analyse grundlegender Eigenschaften von Kontext, zu denen vor allem orts- und zeitbezogene Relevanz z?hlt. Kontext wird entsprechend als allgemeine Datenstruktur modelliert, in der beliebige Kontextinformation mit Ursprungsort und –zeit sowie r?umlich-zeitlicher Ausbreitungscharakteristik beschrieben wird. Zur Modellierung der Ausbreitung und Verteilung von Kontext im Zeit-Raum-Kontinuum wird das Prinzip der unscharfen Mengen (Fuzzy Logic) herangezogen. Darauf aufbauend wird ein FuzzySpace als Kommunikationsplattform eingeführt, der auf einem Tupelraum aufbaut, für Elemente aber zus?tzlich eine r?umlich-zeitlich definierte Relevanz einführt. über diese Plattform k?nnen Kontextlieferanten, -konsumenten undabstraktoren Kontextinformationen austauschen. Die Verteilung von Kontext im FuzzySpace bleibt für diese Komponenten transparent, was zur Vereinfachung der Anwendungsentwicklung beitr?gt. Eingegangen am 14. Februar 2001 / Angenommen am 22. August 2001  相似文献   

16.
Zusammenfassung.   Bei der iterativen, inkrementellen Software-Entwicklung werden Klassen sukzessive spezifiziert, implementiert bzw. ge?ndert oder erweitert, klassengetestet und zu einem ausführbaren Anwendungssystem integriert. Integrations- und Regressionstest stellen dabei besonders wichtige und h?ufig ausgeführte Testaktivit?ten dar, die zudem aufgrund der vielf?ltigen Interaktionsm?glichkeiten in objektorientierten Programmen sehr komplex sind. Integrations- und Regressionstest werden in der Literatur stets separat behandelt, obwohl sie durchaus ?hnliche Teilaktivit?ten beinhalten. Bestehende Ans?tze zum objektorientierten Integrationstest betrachten entweder strukturelle oder verhaltensorientierte Systembeschreibungen. In diesem Beitrag stellen wir das Klassen-Botschaftsdiagramm (KBD) vor, ein Struktur und Verhalten objektorientierter Programme gleicherma?en berücksichtigendes interaktionsbasiertes (Test-)Modell. Wir skizzieren Algorithmen zur ?nderungsanalyse, Ableitung einer Integrationsstrategie und Auswahl von Regressionstestf?llen nach der Modifikation bestehender Klassen. Abschlie?end werden die Ergebnisse einiger mit Smalltalk-80 Klassen durchgeführter Experimente zur Evaluierung des Verfahrens vorgestellt. Eingegangen am 14. Dezember 1999 / Angenommen am 19. Juni 2000  相似文献   

17.
Zusammenfassung. Es wird eine werkzeugunterstützte Entwicklungsmethodik vorgestellt, die der Erstellung von Berechnungsmodellen für die Simulation hybrider physikalisch-technischer Systeme dient. Dafür werden verschiedene Modellbeschreibungstechniken dargestellt und klassifiziert, die anschlie?end in einen falltypischen Entwicklungsproze? eingebettet werden, der auf hybriden Erweiterungen von UML und Z basiert. Die Simulationsumgebung Smile (http://buran.fb10.tu-berlin.de/Energietechnik/EVT\_KT/smile/) erm?glicht schlie?lich die generische Erzeugung eines ausführbaren Simulators. Architektur und Kernkomponenten dieses Systems, wie beispielsweise L?sungsverfahren und Experimentshell, werden eingehender diskutiert. Ein Anwendungsbeispiel illustriert den beschriebenen Entwicklungsproze?. Eingegangen am 15. Juli 1999 / Angenommen am 12. November 1999  相似文献   

18.
Zusammenfassung.   Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen. Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes, wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund. Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001  相似文献   

19.
Zusammenfassung.   Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben, bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen schlie?t dieser Beitrag. Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号