共查询到20条相似文献,搜索用时 31 毫秒
1.
《Informatik - Forschung und Entwicklung》2006,21(1-2):105-113
Zusammenfassung Computersysteme, wie wir sie heute kennen, passen sich typischerweise nicht an den Benutzer und dessen Situation an. Erste Beispiele von Systemen, die durch den Bezug zur Realwelt den Kontext des Benutzers einbeziehen, sind Navigationssysteme, die unter Berücksichtigung der Position eines Benutzers und der Verkehrslage Richtungsanweisungen geben k?nnen. Damit innovative kontextbezogene Anwendungen m?glich werden, muss der Kontext, also der Zustand der Realwelt, durch Sensoren erfasst, in das Computersystem übermittelt und dort in Form dynamischer Umgebungsmodelle den Anwendungen zur Verfügung gestellt werden.Der von der Deutschen Forschungsgemeinschaft gef?rderte und im Januar 2003 an der Universit?t Stuttgart eingerichtete Sonderforschungsbereich SFB 627 ,,Umgebungsmodelle für mobile kontextbezogene Anwendungen“ [22] ist ein interdisziplin?rer Forschungsverbund von über 30 Wissenschaftlern. Diese erforschen Methoden und Konzepte für die Definition, Erstellung und Verwaltung von Umgebungsmodellen, durch die Anwendungen Zugriff auf Kontextinformationen erhalten. 相似文献
2.
Michael Beyer Andreas Rose Emanuel Jank J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,18(4):147-160
Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen. 相似文献
3.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
4.
Rainer Koschke 《Informatik - Forschung und Entwicklung》2005,6(6):127-140
Software-Architekturen werden aus verschiedenen Sichten beschrieben, die abh?ngig von den Anliegen sind, die mit der Beschreibung
verfolgt werden. In vielen F?llen ist die Software-Architektur eines Systems nicht ausreichend beschrieben. Sichten müssen
dann rekonstruiert werden, um für Planung von ?nderungen zur Verfügung zu stehen.
Dieser Artikel fasst die in der wissenschaftlichen Literatur vorgeschlagenen Techniken zur Rekonstruktion von Software-Architektursichten
zusammen und stellt sie den Sichten des Architekturentwurfs gegenüber. Anhand der Gegenüberstellung identifiziert er Forschungsbedarf. 相似文献
5.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
6.
Albert Endres 《Informatik - Forschung und Entwicklung》2006,20(4):236-237
Zusammenfassung So wie viele andere Fachgebiete erzielt die Informatik-Paxis ihre methodischen Fortschritte prim?r dadurch, dass sie aus Erfahrungen
lernt. Das gilt zun?chst und vor allem für die eigene Firma. Welche Erfahrungen zwischen Firmen übertragen werden k?nnen,
ist nicht immer genau vorherzusagen, da der Kontext, für den sie gelten, oft nicht vorhanden ist. Dennoch ist es eine Aufgabe
der Fachgesellschaften und der Fachmedien, in dieser Hinsicht Hilfen und Foren anzubieten. Die Herausgeber der Zeitschrift
Informatik – Forschung und Entwicklung (IFE) fühlen sich diesem Ziel verpflichtet und m?chten den Ideenaustausch zwischen
den Lesern f?rdern. Die folgenden Fragen k?nnen Projektbeteiligten helfen, einen Erfahrungsbericht so zu strukturieren, dass
er auch für Kollegen aus anderen Firmen von Interesse ist. Nicht alle Fragen treffen bei jedem Projekt zu. Ein derartiger
Bericht kann nach jeder Phase eines Projektes erstellt werden, sp?testens jedoch am Ende. Man spricht dann auch von einem
Post mortem. Die Herausgeber von IFE laden dazu ein, in dieser Rubrik weiterhin geeignete Berichte sowohl über Forschungs-
wie über Entwicklungsprojekte zu ver?ffentlichen. Bitte schicken Sie diese an das Sekretariat der Hauptherausgeber (Adresse:
siehe Autorenhinweise). 相似文献
7.
Stephan Ewen Michael Ortega-Binderberger und Volker Markl 《Informatik - Forschung und Entwicklung》2005,20(3):138-151
Zusammenfassung Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt.
CR Subject Classification H.2.4,H.2.5,D.3.4 相似文献
8.
Stephan Ewen Michael Ortega-Binderberger Volker Markl 《Informatik - Forschung und Entwicklung》2005,10(4):138-151
Anfrageoptimierer in modernen Datenbanksystemen (DBS) verwenden ein Kostenmodell, um für eine Anfrage einen effizienten Zugriffsplan
aus der Menge aller m?glichen Zugriffspl?ne auszuw?hlen. Die Genauigkeit, mit der diese Kosten gesch?tzt werden, h?ngt stark
davon ab, wie genau Statistiken über die Datenverteilung die ihnen zugrunde liegenden Daten modellieren. Veraltete Statistiken,
oder ungültige Annahmen im statistischen Modell, führen h?ufig zur Auswahl suboptimaler Zugriffspl?ne und dadurch zu Defiziten
bei der Ausführungsgeschwindigkeit von Datenbankanfragen. F?derierte Systeme müssen auf dem koordinierenden DBS Statistiken
über verteilte Daten unterhalten, um effiziente Zugriffspl?ne zu entwickeln, wenn Daten aus verschiedenen Datenquellen zusammengeführt
werden. Fehlerhafte Statistiken verursachen in diesem Fall schlechte Lastenverteilung sowie zus?tzlichen Kommunikationsaufwand
und Netzlast. Die Synchronisation dieser zus?tzlichen Statistiken mit den Statistiken der entfernten Datenquellen ist problematisch,
da Datenquellen v?llig unabh?ngig voneinander sind und ihre Statistiken eventuell nicht externalisieren oder inkompatible
bzw. andere statistische Modelle verwenden als das koordinierende DBS. Im folgenden zeigen wir eine Erweiterung der Feedback-Schleife
von DB2s lernendem Optimierer (LEO) auf f?derierte Architekturen, die es LEO erm?glicht, automatisch Statistiken über Daten
auf entfernten Datenquellen zu lernen und zu verwalten. Wir diskutieren mehrere M?glichkeiten, Feedback für f?derierte Anfragen
zu erhalten und stellen einen L?sung vor, die lokales Feedback verwendet, und einen Stichprobenprozess (statistical sampling)
zu steuren, der die ben?tigten entfernten Daten basierend auf dem Feedback effizient ermittelt. Mittels einer detaillierten
Leistungsanalyse der vorgestellten M?glichkeiten im Rahmen einer Fallstudie belegen wir, dass der potenzielle Geschwindigkeitszuwachs
für Datenbankanfragen sehr hoch ist, w?hrend die Zusatzbelastung durch LEO in moderaten Grenzen liegt. 相似文献
9.
Wilhelm Hasselbring 《Informatik - Forschung und Entwicklung》1998,13(4):217-226
Zusammenfassung. Die Erfahrungen aus einem Projekt im Bereich Krankenhausinformationssysteme werden in diesem Papier diskutiert. Insbesondere
konzentrieren wir uns dabei auf den Einsatz von Techniken zur partizipativen Anforderungsanalyse und die dabei für die Anwender
erreichte Nachvollziehbarkeit von den ermittelten Anforderungen zum entwickelten System. Ein zentraler Aspekt ist hierbei
der durchg?ngige Einsatz von anwendungsspezifischen Piktogrammen in der Modellierung der Anforderungen und in der Implementierung der graphischen Benutzungsschnittstellen, wobei
auch das frühzeitige Prototyping zur überprüfung der ermittelten Anforderungen eine wichtige Rolle spielt.
Eingegangen am 16. Januar 1998 / Angenommen am 6. Oktober 1998 相似文献
10.
Klaus Achatz und Wolfram Schulte 《Informatik - Forschung und Entwicklung》1997,12(4):174-185
Zusammenfassung. Wir stellen die neue Methode vor, die auf die formale Entwicklung sequentieller, objektorientierter Softwaresysteme abzielt. ist eine synergetische Kombination aus der semiformalen Methode Fusion und der formalen Spezifikationssprache Object-Z. Die
Methode unterscheidet ausdrücklich Analyse und Entwurf, um die Komplexit?t und die unterschiedlichen Aufgaben der Softwareentwicklung
zu bew?ltigen. In jeder Entwicklungsphase werden Zustands- und Verhaltensspezifikationen in graphischer oder textueller Form
erstellt. Wir geben Beweisverpflichtungen an, um zu gew?hrleisten, da? die entwickelten Spezifikationen formal konsistent
und vollst?ndig sind, und da? das resultierende System zur Ausgangsspezifikation konform ist. Wir illustrieren die Anwendung
von an einem einfachen Beispiel, einem Grapheditor.
Eingegangen am 24. Dezember 1996 / Angenommen am 8.10.1997 相似文献
11.
Zusammenfassung. Softwareentwicklungsprozesse auf Basis von Phasenmodellen verlangen eine Ermittlung der Anforderungen zu Beginn der Entwicklung.
Die Anforderungen bilden die Basis für die nachfolgenden T?tigkeiten in der Entwicklung. Daher sind die Verfolgbarkeit der
Anforderungen durch die Softwareentwicklung und die überprüfung der korrekten Realisierung der Anforderungen wichtig. Dies
gilt insbesondere in sicherheitskritischen Anwendungsbereichen. Einerseits ist die Unified Modeling Language (UML) zur Zeit der Standard im Bereich der objektorientierten Software-Modellierung. Andererseits weist die UML Defizite in Bezug
auf die Verfolgbarkeit von Anforderungen auf. Im Folgenden werden mehrere L?sungsm?glichkeiten zur Behebung dieses Problems
diskutiert. Die Erweiterung des UML-Meta-Modells um eine Meta-Klasse Requirement wird im Detail vorgestellt.
Eingegangen am 22. Februar 2002 / Angenommen am 8. Mai 2002 相似文献
12.
Arne Frick Rainer Neumann und Wolf Zimmermann 《Informatik - Forschung und Entwicklung》1997,12(4):186-195
Zusammenfassung. In diesem Beitrag wird eine Methode zur Konstruktion robuster Klassenhierarchien vorgestellt. Hierzu wird aus den überlegungen
bezüglich der polymorphen Verwendung von Klassen [2] eine Vorgehensweise zur Konstruktion von Klassenhierarchien abgeleitet.
Die Begriffe Konformit?t und Spezialisierung werden verfeinert, indem nicht mehr s?mtliche Methoden einer Klasse, sondern
Teilmengen davon betrachtet werden. Dies führt zum Begriff der partiellen Konformit?t. In Erweiterung von [2] sind partiell konforme Klassen dann polymorph verwendbar, wenn der Anwendungskontext, der sich aus der Benutzung der Klasse ergibt, sich ausschlie?lich auf konforme Methoden erstreckt. Diese Eigenschaft ist
statisch zur übersetzungszeit überprüfbar. Damit k?nnen Fehlbenutzungen bereits zur übersetzungszeit ausgeschlossen werden.
Eingegangen am 24. Dezember 1996 / Angenommen am 15. Oktober 1997 相似文献
13.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
14.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,4(3):93-102
Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen 3D-Trackingsystems. 相似文献
15.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
16.
Christian Denger Barbara Paech und Bernd Freimut 《Informatik - Forschung und Entwicklung》2005,20(1-2):11-23
Zusammenfassung Seit der Einführung von Use Cases hat deren Bedeutung zur Spezifikation von Anforderungen stetig zugenommen. Die Qualit?t
der Use Cases ist ein entscheidender Faktor für den Erfolg des Entwicklungsprozesses, da die meisten Entwicklungsschritte
auf den Use Cases aufbauen. Trotz der extremen Wichtigkeit der Qualit?t der Use Cases stellen die meisten use-case-basierten
Entwicklungsans?tze keine oder nur unzureichende integrierte qualit?tssichernde Ma?nahmen bereit (z.B. ad-hoc Empfehlungen,
Erstellungsrichtlinien, einige Checklisten zur Inspektion von Use Cases). Diese Techniken werden in den meisten F?llen unabh?ngig
voneinander eingesetzt, so dass bestimmte Fehlerklassen in den Use Cases durch mehrere Techniken, andere Fehlerklassen überhaupt
nicht adressiert werden. In diesem Artikel wird ein integrierter Ansatz vorgestellt, in dem Use Case Erstellungsrichtlinien,
Inspektionen und Simulation in systematischer Weise miteinander verknüpft werden. Der Ansatz basiert auf einer Fehlerklassifikation
für Use Cases, die als Grundlage dient, die verschiedenen Techniken auf bestimmte Fehlerarten zu fokussieren .
Since their introduction, use cases (UCs) have become increasingly important for the specification of software requirements. High quality UCs are a prerequisite for project success. Despite the high importance of their quality, UC driven approaches often lack systematic and integrated quality assurance techniques. Only ad-hoc recommendations, creation guidelines, and a few checklists for inspection are available in the literature. If at all, these techniques are developed and used separately, so that one class of defects is addressed by several techniques and other classes are not addressed at all. In this paper, we present an integrated approach that combines UC creation guidelines, UC inspections, and simulation in a systematic way. We base our combined approach on a defect classification for use cases. This classification enables the requirements engineer to focus the different techniques on different types of defects.
CR Subject Classification D2.1 相似文献
17.
Stefan Dorendorf 《Informatik - Forschung und Entwicklung》2005,20(1-2):72-89
Stetig wachsende Datenmengen und hohe Verfügbarkeitsanforderungen an Datenbanken führen dazu, dass Wartungsarbeiten (wie z.B.
Datenbankreorganisationen) oft nicht mehr (oder nicht mehr vollst?ndig) offline in zur Verfügung stehenden Zeitfenstern durchgeführt werden k?nnen bzw. dass die Kosten oder die Behinderungen des normalen
Datenbankbetriebs bei online durchgeführten Wartungsarbeiten nicht mehr vernachl?ssigt werden k?nnen. Deshalb sollte vorab bestimmt (quantifiziert) werden,
ob der zu erwartende Nutzen den mit der Reorganisation verbundenen Aufwand rechtfertigt. Es ist daher wichtig, die Datenbankobjekte
zu lokalisieren und einzugrenzen, bei denen ein hoher Wartungsbedarf besteht. Weiterhin ist es wünschenswert, zun?chst den
durch Wartungsma?nahmen erreichbaren Nutzen vor ihrer Durchführung quantifizieren zu k?nnen. Dieser Nutzen ist auch von der
Workload abh?ngig, also von den gegen die Datenbankobjekte gerichteten Datenbankanweisungen und deren Ausführungsh?ufigkeiten.
Insbesondere der zur Workload-Abarbeitung anfallende I/O-Aufwand, der einen dominierenden Anteil am Gesamtaufwand ausmacht,
l?sst sich mit einer Datenbankreorganisation u.U. wesentlich beeinflussen (reduzieren). In diesem Beitrag wird eine Methode
vorgestellt, die es erm?glicht, die Auswirkungen einer Datenbankreorganisation auf den zur Workload-Abarbeitung notwendigen
I/O-Aufwand abzusch?tzen und damit den haupts?chlichen Nutzen der Reorganisation zu quantifizieren. über erste Erfahrungen
mit der Methode, die anhand von Beispielen gesammelt wurden, wird berichtet.
The permanent increasing amount of data and the requirement of high availability cause that maintenance of databases (e.g.
database reorganizations) often is not or not completely (off-line) possible in the available time spans. On-line database
reorganizations are often expensive and cumbersome during the normal database processing. To reduce performance impacts it
is important to locate the database objects that have a high level of disorganization and so a high need of maintenance. Furthermore,
it is desirable to be able to estimate the benefit of expensive maintenance operations before their processing. This benefit
depends on the degree of disorganization and on the instructions that are processed on the database objects (workload). In
particular, the costs for I/O-operations dominate the total costs for database operations. With database reorganizations it
is possible to reduce the I/O-costs. In this paper we present a method to calculate the benefit of database reorganizations
before the processing. The presented method allows to calculate the possible reduction of the I/O-cost for processing a given
workload caused by a database reorganization.
CR Subject Classification E.2,H.2.7,H.3.2,H.3.3 相似文献
18.
Frank Steinfath Brigitta Lange und Klaus B?hm 《Informatik - Forschung und Entwicklung》1997,12(3):128-142
Zusammenfassung. Die Modellierung komplexer informationsverarbeitender Systeme erfolgt typischerweise durch Gliederung in voneinander unabh?ngige
Einheiten, die über ihre Schnittstellen Meldungen austauschen. Deren Beschreibung wird heute haupts?chlich mit 2D-graphischen
Werkzeugen durchgeführt. In diesem Beitrag identifizieren wir Probleme, wie sie bei der Modellierung solcher Systeme als
Systeme kommunizierender sequentieller Prozesse (CSP) auftreten. CSP selbst, sowie GRAPES und Occam als CSP-Abk?mmlinge sind
dabei die Ausgangsbasis der Problemanalyse. Als Probleml?sung schlagen wir eine 2D-graphische Proze?sprache vor. Es wird
au?erdem das Werkzeug GRADE-3D beschrieben, welches die Diagramme der Proze?sprache r?umlich darstellt. Es verfügt über Funktionalit?t
zur Interaktion mit der Darstellung, zur Analyse und Anzeige von Kommunikationsstrukturen sowie zur Modellbearbeitung. Es
werden ferner L?sungen für typische Probleme von 3D-Werkzeugen vorgestellt. Den Abschlu? bildet eine Bewertung der 3D-Werkzeuge
unter den Aspekten Text vs. 2D vs. 3D sowie aus der Sicht von GRAPES-Modellierern.
Eingegangen am 9. August 1996/Angenommen am 6. Juni 1997 相似文献
19.
Bernhard Westfechtel 《Informatik - Forschung und Entwicklung》2001,16(3):125-144
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t
kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten
und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken
von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen)
werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation
generiert, die auf programmierten Graphersetzungsregeln basiert.
Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001 相似文献
20.
Jede Datenbankprogrammierschnittstelle mu? sich daran messen lassen, inwieweit sie die Vorteile der durch sie integrierten Sprachen (Datenbank- und Programmiersprache) erh?lt. Neben dieser allgemeinen Zielsetzung müssen heutzutage neuere Konzepte in den Bereichen Programmiersprachen und Datenbanksysteme sowie die Anforderungen komplexer Anwendungsbereiche (z. B. CAD oder Software-Entwicklung) beachtet werden. Unser Ansatz der generierten Aufrufschnittstellen soll dazu beitragen, Datenmodelle objekt- relationaler Datenbanksysteme und Typsysteme objektorientierter Programmiersprachen n?her zusammenzurücken. Er erlaubt neben der Schnittstellengenerierung ihre anwendungsspezifische Konfigurierung, um die DB-Verarbeitung spezieller Anwendungen gezielt optimieren zu k?nnen. Wir werden neben Aspekten der Generierung/Konfigurierung die Nutzung von generierten Aufrufschnittstellen beschreiben und Experimente vorstellen, die den durch diesen Ansatz erzielbaren Leistungsgewinn verdeutlichen. Letzterer kann durch gezielten, auf die jeweilige Anwendung zugeschnittenen Einsatz von frühen Bindungen für Datenmanipulationsoperationen sowie von Pointer-Swizzling-/Prefetching-Mechanismen erreicht werden. 相似文献