首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
Zusammenfassung.   Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen, da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt. Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt. In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen. Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000  相似文献   

2.
Zusammenfassung.   Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV. Eingegangen am 23. Dezember 1998 / Angenommen am 16. Juni 1999  相似文献   

3.
Zusammenfassung. Wissenschaftler schreiben ihre Arbeiten schon seit langem mit Hilfe von Textsystemen. Noch für 1989 jedoch belegen Studien, da? Verlage eher selten diese Vorlagen elektronisch übernommen und weiterverarbeitet haben. Erst recht rar waren Publikationen in elektronischer Form. Hier zeichnet sich ein Umbruch ab, bedingt nicht zuletzt durch neue verteilte Informationsdienste im Internet, die es den Autoren erm?glichen, selbst und unmittelbar als Informationsanbieter zu agieren. Diese Entwicklung wird hier im Rahmen der besonderen Gegebenheiten wissenschaftlichen Publizierens dargestellt und analysiert. Der Beitrag gibt einen überblick über Basistechnologie, Werkzeuge und Modelle elektronischen Publizierens, er?rtert die neuen M?glichkeiten insbesondere des Online-Publizierens und zeigt auf, wo die heutigen Werkzeuge zu kurz greifen. Der Schwerpunkt liegt auf wissenschaftlichen Zeitschriften. Eingegangen am 25. August 1995 / Angenommen am 9. Oktober 1995  相似文献   

4.
    
Zusammenfassung. Alle Informationssysteme ben?tigen und erzeugen Daten. Kurz: Jedes System ben?tigt eine Datenversorgung. In dieser Arbeit charakterisieren wir deshalb Informationssysteme hinsichtlich ihrer Datenversorgung und diskutieren m?gliche Ans?tze. Der Schwerpunkt liegt auf datenintensiven Systemen, die viele Daten lesen und schreiben. Als Anwendungsszenario dienen uns Entwurfsumgebungen und die Modellierung von Produktdaten über den STEP-Standard (ISO 10303). Nach einer Klassifikation von Datenquellen stellen wir verschiedene Datenversorgungsstrategien vor, die auf dem OMG-Standard CORBA basieren. Sie werden Java-basierten Verfahren im Bereich des Intra-/Internets gegenübergestellt. Zur Evaluierung ausgew?hlter Verfahren dient uns ein modularer Prototyp, der auf der von uns entwickelten und mittlerweile standardisierten Anbindung der SDAI-Schnittstelle von STEP an die Sprache Java basiert. Eingegangen am 12. Januar 2000 / Angenommen am 23. M?rz 2000  相似文献   

5.
Zusammenfassung.   Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf. Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999  相似文献   

6.
Zusammenfassung. In diesem Beitrag wird ein formaler Ansatz zur Ableitung von Zugriffsrechten auf der Basis eines formalen Organisationsmodells vorgestellt. Hierzu wird der Ansatz der rollenbasierten Zugriffskontrolle (engl. Role-Based Access Control, kurz RBAC) um die M?glichkeit erweitert, Aufbauorganisationen zu modellieren. Der Vorteil gegenüber rollenbasierten Ans?tzen mit einfachen Rollenhierarchien ist die klare Struktur, die einem Zugriffskontrollmodell durch die Organisationsform aufgepr?gt wird. Des Weiteren k?nnen organisatorische Regelungen, wie z.B. Urlaubsvertretung oder Weisungsbefugnis, direkt im Modell hinterlegt werden. Aufwendig zu pflegende und h?ufig inkonsistente Rollenkataloge werden obsolet. Sicherheitsstrategien mit unpr?zisen Vorgaben lassen sich mittels der vorgestellten Technik der sog. `Kompetenzerweiterung' umsetzen. Das zugrundeliegende Paradigma des vorgestellten Ansatzes unterscheidet sich stark von anderen Ans?tzen mit statischer Autorisation. Nutzer k?nnen sich Zugriffsrechte in fest definierten Grenzen selbstverantwortlich zuteilen, wobei jedoch eine nachtr?gliche Kontrolle stark vereinfacht und damit praktikabel wird. Eingegangen am 22. Februar 2001 / Angenommen am 22. Mai 2001  相似文献   

7.
Zusammenfassung. In der vorliegenden Arbeit wird ein mehrf?dig superskalarer Prozessor im Hinblick auf Multimediaverarbeitung entworfen und mit einem Multimediaprogramm als Last getestet. Neu ist hierbei die Kombination von Multimediabefehlen mit der mehrf?digen Prozessortechnik und deren Evaluierung mit einer realistischen Last aus dem Multimediabereich. Diese Last besteht aus einem handoptimierten MPEG-2-Video-Decodierungsalgorithmus, der nicht nur intensiv Multimediabefehle, sondern durch kooperative Mehrf?digkeit auch grobk?rnige Parallelit?t nutzt. Verschiedene Konfigurationen des vorgeschlagenen Prozessors werden untersucht, um potentielle Flaschenh?lse zu identifizieren und soweit m?glich zu eliminieren. Es zeigt sich, dass ein mehrf?dig superskalarer Prozessor mit Multimediaerweiterungen in der Lage ist, einen um einen Faktor drei h?heren IPC-Wert (Instructions per Cycle) zu erreichen als ein gleichwertiger Superskalarprozessor, der nur einen Kontrollfaden gleichzeitig ausführt. Eingegangen am 4. April 2000 / Angenommen am 26. Juli 2000  相似文献   

8.
Zusammenfassung. Die Beweisentwicklungsumgebung -Mkrpsoll Mathematiker bei einer ihrer Hauptt?tigkeiten, n?mlich dem Beweisen mathematischer Theoreme unterstützen. Diese Unterstützung mu? so komfortabel sein, da? die rechnergestützte Suche nach formalen Beweisen leichter und insbesondere weniger aufwendig ist, als ohne das System. Dazu mu? die verwendete Objektsprache ausdrucksstark sein, man mu? die M?glichkeit haben, abstrakt über Beweispl?ne zu reden, die gefundenen Beweise müssen in einer am Menschen orientierte Form pr?sentiert werden und vor allem mu? eine effiziente Unterstützung beim Füllen von Beweislücken zur Verfügung stehen. Das im folgenden vorgestellte $\Omega$-Mkrp-System ist der Versuch einer Synthese der Ans?tze des vollautomatischen, des interaktiven und des planbasierten Beweisens. Dieser Artikel soll eine übersicht über unsere Arbeit an diesem System geben. Eingegangen am 24. Juni 1994 / Angenommen am 3. November 1995  相似文献   

9.
Zusammenfassung.   Wir untersuchen Techniken des Text-Retrievals mit relationalen Datenbanken. Den Tests zum Booleschen Retrieval liegen reale Bibliotheksdaten und Bibliothekarsanfragen zugrunde. Es werden drei Realisierungen mittels SQL miteinander verglichen, von denen der Nested Loops Join mit vorsortierter Wortfolge am besten abschneidet. Dessen Effizienz beruht auf den signifikant unterschiedlichen Vorkommensh?ufigkeiten der Anfragew?rter. Um diese Beobachtung auch bei einer Implementierung mit komprimierten Bitlisten effizienzsteigernd zu nutzen, wird eine zus?tzliche Zugriffsstruktur für Lookup-Operationen in den Bitlisten aufgebaut. Im Gegensatz zum Booleschen Retrieval zeigt sich beim Retrieval mit Ranking, da? eine Ergebnisberechnung mittels eines geschlossenen SQL-Ausdrucks einer L?sung, die im Anwendungsprogramm die invertierten Listen durchl?uft und zu einem Ranking kombiniert, hinsichtlich der Effizienz unterlegen ist. Als Grundlage für Abbruchheuristiken wird hier au?erdem eine Indexstruktur aufgebaut, die den Zugriff auf invertierte Listen sortiert nach Within-Document-Frequencies erlaubt. Eingegangen am 12. M?rz 1998 / Angenommen am 31. Oktober 1998  相似文献   

10.
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken, oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch, da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling) zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. CR Subject Classification H.2.4,H.2.5,D.3.4  相似文献   

11.
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken, oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch, da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling) zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.  相似文献   

12.
Zusammenfassung.   In diesem Artikel wird ein Konzept besprochen, mit dem flexible Algorithmen zur Auswertung von Anfragen an tabellarische Datenstrukturen typsicher in objektorientierten Programmiersprachen implementiert werden k?nnen. Kernpunkt ist eine strikte Trennung zwischen dem Zugriff auf Zeilen und Spalten. Gegenüber einem reinem Iteratormodell werden Anwendungsprogramme damit nicht nur von der internen Organisation der zugrundeliegenden Sequenzen entkoppelt, sondern auch von den Tupeltypen der Tabellen. Dadurch wird es m?glich, hohe Laufzeitflexibilit?t mit weitgehender statischer Typsicherheit zu verbinden. Eingegangen am 1. August 1997 / Angenommen am 7. M?rz 1998  相似文献   

13.
Zusammenfassung.   Die intelligente Ressourcenadaption ist eine der gro?en Herausforderungen für die n?chste Generation mobiler Navigationssysteme. Da man typischerweise mehrere Fortbewegungsarten oder Verkehrsmittel kombinieren muss, um an einen Zielort zu gelangen, muss sichergestellt werden, dass mobile, allgegenw?rtige Navigationshilfen dies über eine jeweils situationsangepasste Benutzerschnittstelle unterstützen. Der notwendige Wechsel zwischen verschiedenen Positionierungstechnologien soll für den Endbenutzer m?glichst unbemerkt bleiben. Im folgenden wird ein hybrides Personennavigationssystem vorgestellt, das die in bestimmten Fortbewegungssituationen verfügbaren Positionierungstechnologien und deren Genauigkeit optimal nutzt, um die Pr?sentation der Wegbeschreibung auf verschiedene Endger?te und Ausgabemodalit?ten sowie die kognitive Ressourcenlage des Benutzers zu adaptieren. Eingegangen am 28. Februar 2001 / Angenommen am 8. August 2001  相似文献   

14.
Zusammenfassung.   Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001  相似文献   

15.
Zusammenfassung. In industriellen Anwendungen bew?hren sich Roboter durch ihre hohe Pr?zision und Wiederholgenauigkeit. Ihr Einsatz in neuen Gebieten, wie z.B. in der Chirurgie unterliegt aber anderen Randbedingungen. Die Datenakquisition und Planung jedes Eingriffs mu? individuell für einen Patienten ausgeführt werden. Die pr?operative Planung einer Operation auf den komplexen Freiformfl?chen des Patienten ist nur mit der Unterstützung eines rechnerbasierten Planungssystems durchführbar. Durch eine integrierte intraoperative Instrumentennavigation wird sichergestellt, da? die geplanten Vorg?nge auch geometrisch richtig ausgeführt werden. Eine prototypische Roboterarbeitszelle dient zur Evaluierung der untersuchten Methoden und entwickelten Subsysteme. Die vorgestellten Arbeiten finden im Rahmen des Sonderforschungsbereiches 414: “Rechner- und sensorgestützte Chirurgie” statt, der eine enge interdisziplin?re Zusammenarbeit zwischen Ingenieuren, Medizinern und Naturwissenschaftlern erm?glicht. Eingegangen am 11. Juli 1998 / Angenommen am 21. Januar 1999  相似文献   

16.
Die plattformunabh?ngige und organisationsübergreifende Web Services-Interoperabilit?t setzt ein leistungsf?higes und flexibles Autorisierungssystem voraus. In diesem Beitrag wird ein Zugriffskontrollsystem vorgestellt, welches sich durch das Zusammenspiel lokaler und verteilter Autorisierung auszeichnet. Im Zusammenhang mit lokaler Zugriffskontrolle, bei der Rechte innerhalb einer Organisation ausgewertet werden, stellt sich insbesondere die Herausforderung, Autorisierungsregeln zu konsolidieren: Da die Funktionalit?t von Web Services h?ufig auf weitere Anwendungen und Betriebsmittel wie Datenbanksystemen aufsetzt, ergeben sich Abh?ngigkeiten bezüglich der Autorisierung, die überprüft und eingehalten werden müssen. über eine verteilte Zugriffskontrolle wird der Aufbau von Kollaborationsnetzwerken erm?glicht. Der Augenmerk liegt im Folgenden auf schwach gekoppelten Zusammenschlüssen, die die Autonomie der beteiligten Organisationen beibeh?lt. Skalierbarkeit und Effizenz werden durch den Einsatz von rollenbasierter Zugriffskontrolle einerseits und dem Caching ?hnlicher, wiederkehrender Autorisierungen andererseits erreicht.  相似文献   

17.
Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV.  相似文献   

18.
Zusammenfassung. Mit der zunehmenden Zahl an Anwendungssystemen, welche Datenbank und zugeh?rige Anwendung kapseln, ist die reine Datenintegration nicht mehr ausreichend. Stattdessen k?nnen die Daten des Anwendungssystems nur noch über vordefinierte Funktionen abgefragt werden. Sollen Daten und Funktionen integriert werden, so ist eine Kombination von deklarativen Anfragen und dem Zugriff auf Funktionen erforderlich. In diesem Aufsatz stellen wir einen Middleware-Ansatz vor, der diese erweiterte und neuartige Form der Integration unterstützt. Hierzu werden zun?chst die Probleme der Funktionsintegration er?rtert und eine Spezifikationssprache eingeführt, die f?derierte Funktionen zu bilden und diese mehreren lokalen Funktionen der zu integrierenden Anwendungssysteme zuzuordnen erlaubt. Anschlie?end zeigen wir, wie die zugeh?rige Ausführungskomponente – in unserem Fall ein Workflow-Managementsystem – an ein F?deriertes Datenbanksystem mittels eines Wrappers gekoppelt wird, um die Integration von Daten und Funktionen zu erm?glichen. Dabei wird die zu unterstützende Funktionalit?t innerhalb des Wrappers sowie deren Auswirkungen auf die Anfrageverarbeitung als auch das zugeh?rige Kostenmodell untersucht. Abschlie?end wird ein Eindruck von der Performanz der vorgestellten Architektur vermittelt. Eingegangen am 19. Februar 2002 / Angenommen am 31. Mai 2002  相似文献   

19.
Zusammenfassung.   Multimedia-Anwendungen sind interaktive Softwaresysteme und verlangen als solche, mit softwaretechnischen Methoden erstellt zu werden. Sie werden heutzutage in der Regel mit Hilfe von Autorensystemen entwickelt, die eine Ad-hoc-Entwicklung auf Implementierungsniveau unterstützen. Hierdurch und wegen des Fehlens etablierter Vorgehensmodelle für die Multimedia-Softwareentwicklung reduziert sich der Multimedia-Entwicklungsproze? auf die Implementierungsphase. Dies führt zu den in der Softwaretechnik bekannten Problemen wie mangelnder Konzeption und fehlender Dokumentation. Wir stellen in diesem Beitrag ein Vorgehensmodell für die Entwicklung von Multimedia-Anwendungen vor, in dessen Mittelpunkt eine Analyse- und Entwurfsphase im Hinblick auf eine Implementierung der Multimedia-Anwendung mit einem Autorensystem stehen. Ausgehend von einem frameworkbasierten Analysemodell der Anwendung und einem Modell der Realisierungsm?glichkeiten mit einem konkreten Autorensystem wird systematisch ein Implementierungsmodell auf Instanzebene abgeleitet, das als Eingabe für das Autorensystem verwendet wird. Das postulierte Vorgehensmodell wird exemplarisch für das Autorensystem Director am Beispiel der Dom?ne multimedialer Lehr-/Lernanwendungen erl?utert. Eingegangen am 2. November 1998 / Angenommen am 18. M?rz 1999  相似文献   

20.
Zusammenfassung.   Inspektion hilft bereits in frühen Phasen der Softwareentwicklung, die Qualit?t von Softwareprodukten zu bestimmen und Nachbearbeitungsaufwand einzusparen. Lesetechniken sind ein Ansatz, der die Aufmerksamkeit von Inspektoren beim individuellen Lesen auf bestimmte Fehlermengen lenken und dadurch die Arbeit mehrerer Inspektoren untereinander koordinieren soll. Diese Arbeit berichtet über ein Experiment, das einerseits die Effektivit?t und Effizienz mehrerer Lesetechniken auf individueller und auf Teamebene miteinander vergleicht und andererseits Zusammenh?nge der Verwendung von Lesezeit mit der Effektivit?t von bestimmten Inspektorengruppen untersucht. Die Ergebnisse unterstützen den gezielten Einsatz von Lesetechniken bei der Planung einer Inspektion, um Inspektoren beim Finden von Fehlern in bestimmten Mengen bzw. Dokumentteilen anzuleiten und um die Effektivit?t und Effizienz im Team durch Minimieren der Anzahl mehrfach gefundener Fehler zu optimieren. Die betr?chtlichen Schwankungen der Leistungen von Inspektoren, die eine bestimmte Lesetechnik verwendeten, im Vergleich zu den Unterschieden der Mittelwerte verschiedener Lesetechniken verdient eine detailliertere Untersuchung. Bei der Untersuchung des Zeitverlaufs für Inspektorengruppen mit unterschiedlicher Gesamteffektivit?t zeigten sich betr?chtliche Leistungsunterschiede schon nach den ersten drei Stunden der Inspektion. Das Design von Lesetechniken sollte angepa?t werden, um dynamisch auf Inspektoren mit deutlich unterschiedlichen F?higkeiten abgestimmt zu werden. Eingegangen am 31. Oktober 2000 / Angenommen am 10. April 2001  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号