共查询到20条相似文献,搜索用时 31 毫秒
1.
Alfred Winter 《Informatik - Forschung und Entwicklung》2008,51(1):137-146
Die Medizin ist gepr?gt sowohl durch ihren besonderen unmittelbaren und existenziellen Bezug
zu Menschen als auch durch ihre zunehmende ?konomische Bedeutung. Ein Medizinisches Informationssystem
ist das umfassende System aller Informationsverarbeitung einer medizinischen Einrichtung oder Region. W?hrend
die Architekturprinzipien des rechnerbasierten Teils solcher Informationssysteme wenige Besonderheiten aufweist,
bündelt das Management dieser Informationssysteme viele Herausforderungen und Probleme, die wegen der
besonderen Bedeutung der Medizin besondere Priorit?t bei der L?sung haben müssen. 相似文献
2.
Zusammenfassung. Im Rahmen des F?rderprogramms Neue Medien in der Bildung f?rdert das BMBF das Vorhaben „MuSofT – Multimedia in der Softwaretechnik”. Dieses Vorhaben soll in den n?chsten drei Jahren
multimediale Lehr- und Lerneinheiten in die softwaretechnische Lehre einführen und insbesondere drei Aspekte der Softwaretechnik-Ausbildung
unterstützen. Im ersten Aspekt wird die objektorientierte Modellierung als eine Folge von Phasen betrachtet, innerhalb deren
Software-Produkte schrittweise konstruiert werden. Hierzu geh?ren insbesondere die Analysephase mit dem Erfassen von Benutzeranforderungen
und die anschlie?ende Entwurfsphase mit dem Umsetzen dieser Anforderungen in technische Modelle. Ein zweiter Aspekt ist die
Auseinandersetzung mit dem Entwicklungsprozess selbst und den dazugeh?renden übergreifenden T?tigkeiten wie dem Projektmanagement
und der Qualit?tssicherung. Ein dritter Aspekt ist die fachdidaktische Herangehensweise an die softwaretechnische Ausbildung,
die insbesondere für die Informatiklehrerausbildung von gro?er Bedeutung ist.
相似文献
3.
Michael Beyer Andreas Rose Emanuel Jank und J?rg Krüger 《Informatik - Forschung und Entwicklung》2008,22(3):147-160
Zusammenfassung Durch Einsatz von Softwaretechnik k?nnen immer komplexere Funktionalit?ten in Medizinger?ten
realisiert werden. In der computerunterstützten Chirurgie werden Assistenzsysteme entwickelt mit dem
Ziel, die Risiken bestehender Behandlungsmethoden zu minimieren und in neue chirurgische Anwendungsbereiche
vorzudringen. Um die steigende Komplexit?t solcher Systeme zu beherrschen, müssen anstelle von
hardwarenahen Implementierungen Abstraktionskonzepte gefunden werden, die überschaubare Programmstrukturen
und problemlose Erweiterbarkeit erm?glichen. Für das bereits klinisch evaluierte Navigationssystem
FESS-Control wird mit Hilfe von bekannten Softwaretechnikmethoden ein Modell entwickelt und implementiert,
das im Gegensatz zur bestehenden Implementierung die Beschreibung leistungsgesteuerter chirurgischer Instrumente
auf einer abstrakten Ebene und deren sichere automatisierte Erkennung erm?glicht. FESS (functional
endonasal sinus surgery) ist eine minimal invasive Behandlungsmethode für die Nase und Nebenh?hlen,
bei der der Chirurg keine direkte Sicht zum Operationssitus und den Instrumenten hat. Mit dem Ziel, den
Chirurgen w?hrend des Eingriffs zu unterstützen, verwendet FESS-Control eine optische Navigationskamera,
um die r?umliche Lage eines Shavers bezüglich des Patienten und dessen Bilddaten w?hrend
der Operation zu bestimmen. Gleichzeitig erfolgt zum Schutz sensibler Strukturen eine Leistungssteuerung
des Instruments. Mit Hilfe des neuen Modells wird die Beschr?nkung des existierenden Systems, welches
nur gerade Shaverans?tze navigiert, aufgehoben und die Verwendung weiterer in der medizinischen Anwendung
ben?tigter Shaverans?tze erm?glicht. Die neue L?sung für das FESS-Control System
ist ein überzeugendes Beispiel dafür, dass Methoden der Softwaretechnik auch in den Anwendungen
der Medizintechnik gewinnbringend eingesetzt werden k?nnen.
CR subject classification J.3 ; I.6.5 相似文献
4.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
5.
Zusammenfassung Diese Arbeit stellt ein Modell und ein System zur Steuerung von Exoskeletten mit Hilfe von elektrischen
Signalen vor, die an den Muskeln des Benutzers gemessen werden. Anhand dieser Signale wird der eigene Drehmomentbeitrag
des Benutzer zur gewünschten Bewegung abgesch?tzt, und ein einstellbarer Faktor bestimmt das vom
Exoskelett hinzugefügte Drehmoment in Bezug auf den Beitrag des Benutzers. Die Signale werden durch
ein komplexes biomechanisches Modell ausgewertet.
CR subject classification J.3 ; J.7 ; I.6.5 相似文献
6.
Dirk Siebert Patrick Neumann Armin Schulz Gabriele Faulkner und Thomas Tolxdorff 《Informatik - Forschung und Entwicklung》2001,16(2):93-102
Zusammenfassung. Für ein vollst?ndig computergestütztes Planungssystem zum Zwecke der kieferchirurgischen Operationsplanung ist die Bereitstellung
von virtuellen Werkzeugen für den Chirurgen eine grundlegende Voraussetzung. Ausgehend von den Volumendaten mit Sch?del- und
Kieferknochen des Patienten erm?glicht ein einfaches Interface unter Verwendung einer geeigneten Visualisierung und haptischer
Eingabeger?te die interaktive Definition und Manipulation einzelner virtueller Knochensegmente. Wir haben moderne kraftrückgekoppelte
Ger?te aus dem Niedrigpreisbereich eingebunden und auf ihre F?higkeit untersucht, das dreidimensionale Verst?ndnis im Planungsproze?durch
Anlehnung an die Vorg?nge bei der chirurgischen Prozedur zu erh?hen. Durch diese Eingabeger?te ist es m?glich, die Knochensegmentierung
für eine Osteotomie des Unterkiefers intuitiver und schneller durchzuführen. Die definierten Teilvolumina ergeben zusammen
mit ihrer r?umlichen Neuanordnung auf Grundlage einer kephalometrischen Analyse einen Operationsplan. Nach erfolgter Planung
werden die Planungsergebnisse in den Operationssaal übertragen. Die intraoperativen Techniken beinhalten die Visualisierung
der Planungsergebnisse, die Steuerung der Anwendung über Sprache und die Bestimmung der Patientenposition mittels eines elektromagnetischen
3D-Trackingsystems.
Eingegangen am 27. April 2000 / Angenommen am 21. Februar 2001 相似文献
7.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer und S. Hagl 《Informatik - Forschung und Entwicklung》1999,14(1):16-23
Zusammenfassung. Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen.
Eingegangen am 11. Juli 1998 / Angenommen am 12. Januar 1999 相似文献
8.
Thomas Bauer Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2001,16(2):76-92
Zusammenfassung. Zur Unterstützung von unternehmensweiten und -übergreifenden Gesch?ftsprozessen muss ein Workflow-Management-System (WfMS)
eine gro?e Anzahl von Workflow-Instanzen steuern k?nnen. Daraus resultiert eine hohe Last für die Workflow-Server und das
zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur Bew?ltigung der Last ist
es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei
Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver
übertragen werden müssen, um dort mit der Steuerung fortfahren zu k?nnen. Deshalb belasten Migrationen das Kommunikationssystem
zus?tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert
werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Gesch?ftsbereiche aus Kostengründen nur
über langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS überhaupt erst erm?glicht.
Eingegangen am 22. Juni 2000 / Angenommen am 25. Januar 2001 相似文献
9.
Hans-Jürgen Siegert 《Informatik - Forschung und Entwicklung》2008,22(4):237-266
Zusammenfassung Zusammen mit drei weiteren Artikeln, die den übergang vom Batch- zum Timesharing-Betrieb, das
Unternehmen und die Hardware des TR440 beschreiben, gibt dieser Text einen Rückblick auf Entwicklung
und Realisierung des deutschen Gro?rechners TR440 bei AEG-Telefunken und den Nachfolgefirmen. Dieser
Teil des Rückblicks besch?ftigt sich mit der Software und der Software-Entwicklung für den
TR440, insbesondere in den Jahren 1965 bis 1974. Es werden technische Highlights der Software behandelt
und Einblicke in die Software-Entwicklung selbst gegeben, insbesondere auch Hintergrundinformationen zu
Einflüssen, Verantwortungen und Entscheidungen. Der Artikel beginnt mit dem TR4, dem Vorg?nger
des TR440, und endet mit den Aktivit?ten für einen TR440-Nachfolger.
CR subject classification K.1 ; K.2 ; K.6 ; D.2 ; D.3 ; D.4 ; D.2.9 相似文献
10.
Zusammenfassung. Die Entwicklung von Realzeitsystemen ist eine wesentliche Aufgabe im industriellen Umfeld. Der dynamische Test ist die wichtigste
analytische Qualit?tssicherungsmethode für Realzeitsysteme. Der dynamische Test ist das einzige Verfahren, mit dem das Laufzeitverhalten
der Systeme in der tats?chlichen Einsatzumgebung überprüft werden kann. Bestehende Testmethoden konzentrieren sich weitgehend
auf den Test des funktionalen Verhaltens von Systemen. Sie bieten keine besondere Unterstützung für den Test des zeitlichen
Verhaltens. Für die Korrektheit von Realzeitsystemen sind jedoch beide Aspekte gleicherma?en wichtig. Folglich müssen die
bestehenden Methoden um neue Ans?tze erg?nzt werden, die auf die Prüfung des zeitlichen Verhaltens spezialisiert sind. Ein
Fehler im Zeitverhalten von Realzeit-Systemen liegt dann vor, wenn es zul?ssige Eingabesituationen gibt, für die das System
nicht in der Lage ist, die spezifizierten zeitlichen Anforderungen zu erfüllen. In den meisten F?llen ist dies darauf zurückzuführen,
da?das System eine Ausgabe zu früh macht oder da?die Berechnung einer Ausgabe zu lange dauert und diese daher zu sp?t erfolgt.
Aufgabe des Testers ist es folglich, die Eingabesituationen mit den l?ngsten und kürzesten Ausführungszeiten zu finden, um
zu überprüfen, ob die für das System spezifizierten Zeitschranken verletzt werden. Wird die Suche nach entsprechenden Eingabesituationen
als Optimierungsproblem interpretiert, dann k?nnen evolution?re Algorithmen verwendet werden, um die Eingaben mit den l?ngsten
und kürzesten Ausführungszeiten automatisch zu suchen. Die zu optimierende Zielfunktion entspricht hierbei den gemessenen
Ausführungszeiten, die generierten Individuen repr?sentieren Testdaten. Die Verwendung evolution?rer Algorithmen für den Test
nennen wir evolution?ren Test. Zum Vergleich des evolution?ren Tests mit anderen Testmethoden wurden in dieser Arbeit mehrere Experimente durchgeführt.
In allen Experimenten erreicht der evolution?re Test l?ngere bzw. kürzere Ausführungszeiten als durch Zufallstests oder systematische
Tests gefunden werden. Der evolution?re Test erscheint daher als gut geeignet für die Prüfung der zeitlichen Korrektheit von
Realzeitsystemen. Die Kombination des evolution?ren Tests mit systematischen Tests kann die Testqualit?t weiter verbessern
und wird in diesem Papier als Teststrategie für Realzeitsysteme empfohlen.
Eingegangen am 14. Dezember 1999 / Angenommen am 30. Mai 2000 相似文献
11.
Ulrich John und Ulrich Geske 《Informatik - Forschung und Entwicklung》2002,17(4):167-176
Zusammenfassung. Industrielle Konfigurationsprozesse sind, bedingt durch die vorherrschende Variantenvielfalt, sehr komplex. Aufgrund der
inh?renten Potentiale ist die Realisierung von effizienten, flexiblen Konfigurationsprozessen ein zentrales Ziel vieler Unternehmen.
Wir haben einen Ansatz für die Konfiguration und Rekonfiguration von Produkten entwickelt, der auf Constraint-basierter Modellierung
über endlichen Dom?nen basiert. Das auf diesem Ansatz beruhende System ConBaCon deckt eine breite Palette von Konfigurationsproblemen
ab und erm?glicht eine effiziente L?sung, die sowohl automatisch als auch gesteuert durch hoch flexible Nutzerinteraktion
erfolgen kann. Wendet man das System jedoch auf gro?e Konfigurationsprozesse an, so treten Performanzprobleme auf. Als zwei
wesentliche Modellerweiterungen, die diesem Mangel entgegenwirken, stellen wir in dieser Arbeit einerseits eine Modell-Clusterung
und andererseits die Behandlung gro?er Netze arithmetischer Constraints vor.
Eingegangen am 11. Februar 2002 / Angenommen am 18. Juli 2002 相似文献
12.
G. Glombitza R. De Simone U. Mende M. Merdes R. Krempien D. Zerfowski C.H.F. Vahl H.P. Meinzer S. Hagl 《Informatik - Forschung und Entwicklung》1999,19(4):16-23
Die Verwendung der Ultraschalltechnik als bildgebendes Verfahren geh?rt in den unterschiedlichsten Bereichen der Medizin
zur klinischen Routine. In den letzten Jahren sind sowohl bei der Weiterentwicklung der Echoscanner selbst als auch auf der
Softwareseite im Bereich der computer-gestützten Auswertung von Ultraschalldaten enorme Fortschritte erzielt worden. Die Ergebnisse
der T?tigkeiten im Sonderforschungsbereich 414 “Rechner- und sensorgestützte Chirurgie” sind bedeutsame Beispiele der Fortschritte
in der klinischen Anwendung in unterschiedlichen medizinischen Fachrichtungen. Wir zeigen ein Beispiel aus der 3D-Echographie
(Diagnose von Knochentumoren und ihren Auswirkungen auf das umgebende Weichgewebe) und zwei Beispiele aus der Echokardiographie
(Vermessung von Herzklappenringen und Diagnose von Herzklappeninsuffizienzen durch Volumetrie und Visualisierung). Die echokardiographischen
Anwendungen unterscheiden sich dabei hinsichtlich der verwendeten Ultraschallinformation. W?hrend für die Vermessung von Herzklappenringen
die morphologische Information aus den Backscatterdaten gewonnen wird, wird bei der Bestimmung von Flu?volumen auf die Dopplerdaten
zurückgegriffen. 相似文献
13.
Tobias Rohatsch Gerhard P?ppel Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,4(1):53-59
Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit (PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen, die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen und komplexe Zusammenh?nge innerhalb der Daten zu finden. 相似文献
14.
Frank Leymann 《Informatik - Forschung und Entwicklung》1997,12(2):82-90
Zusammenfassung. Aus der Verwendung von Workflow-Management-Systemen in der Praxis ergeben sich drei wesentliche Anforderungen an die Transaktionsunterstützung
für Workflows: Zun?chst mu? das WFMS selbst Manipulationen seiner eigenen Ressourcen unter Transaktionsschutz durchführen.
Weiterhin ist die M?glichkeit des gesicherten Aufrufs von Transaktionen und deren Gruppierung zu verteilten Transaktionen
zu erm?glichen. Schlie?lich ist die Unterstützung von langen Transaktionen zu gew?hrleisten, die sich aus der Semantik der
abgebildeten Gesch?ftsprozesse ergeben.
Eingegangen am 10. September 1996 / Angenommen am 17. Februar 1997 相似文献
15.
Stefanie Rinderle Manfred Reichert und Peter Dadam 《Informatik - Forschung und Entwicklung》2002,17(4):177-197
Zusammenfassung. Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Gesch?ftsprozessen
einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei
müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen ?nderung ungest?rt weiterlaufen k?nnen,
etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schema?nderungen
– wo gewünscht und m?glich – auch auf die bereits (vielleicht in gro?er Zahl) laufenden Workflow-Instanzen übertragen werden
sollen. Dies bei Bedarf zu k?nnen – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn
ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Vertr?glichkeit
von Workflow-Instanzen mit einem ge?nderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte
(z.B. auch Schleifen und Datenflüsse) und damit zusammenh?ngender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage
für ein umfassendes ?nderungsmanagement geschaffen. Au?erdem wird aufgezeigt, wie der Benutzer bei der Migration vertr?glicher
Instanzen auf das neue Schema konkret unterstützt werden kann.
ID="*" Diese Arbeit wurde im Rahmen des Projekts „?nderungsmanagement in adaptiven Workflow-Management-Systemen” der Deutschen
Forschungsgemeinschaft (DFG) erstellt. 相似文献
16.
《Informatik - Forschung und Entwicklung》2006,21(1-2):105-113
Zusammenfassung Computersysteme, wie wir sie heute kennen, passen sich typischerweise nicht an den Benutzer und dessen Situation an. Erste Beispiele von Systemen, die durch den Bezug zur Realwelt den Kontext des Benutzers einbeziehen, sind Navigationssysteme, die unter Berücksichtigung der Position eines Benutzers und der Verkehrslage Richtungsanweisungen geben k?nnen. Damit innovative kontextbezogene Anwendungen m?glich werden, muss der Kontext, also der Zustand der Realwelt, durch Sensoren erfasst, in das Computersystem übermittelt und dort in Form dynamischer Umgebungsmodelle den Anwendungen zur Verfügung gestellt werden.Der von der Deutschen Forschungsgemeinschaft gef?rderte und im Januar 2003 an der Universit?t Stuttgart eingerichtete Sonderforschungsbereich SFB 627 ,,Umgebungsmodelle für mobile kontextbezogene Anwendungen“ [22] ist ein interdisziplin?rer Forschungsverbund von über 30 Wissenschaftlern. Diese erforschen Methoden und Konzepte für die Definition, Erstellung und Verwaltung von Umgebungsmodellen, durch die Anwendungen Zugriff auf Kontextinformationen erhalten. 相似文献
17.
H. Gründer K. Geihs T. Knape und F. Baumert 《Informatik - Forschung und Entwicklung》1998,13(1):26-37
Zusammenfassung. Aus Modellierungs- und Implementationssicht ergeben sich unterschiedliche Anforderungen an das Objektmodell in verteilten
Systemen. Einerseits stehen Objekteigenschaften wie Datenabstraktion, Datenkapselung, Modularit?t und Zugriffschutz im Vordergrund.
Andererseits stellen sich Fragen der implementationstechnischen Umsetzung der r?umlichen und zeitlichen Entkopplung, der Parallelit?t,
der Substitution, der Konstruktion und der Evolution von Objekten bzw. von Teilen eines Objektes. Letztgenannte Anforderungen
resultieren aus der Verteilung und der Systemdynamik, die nicht nur verteilten Systemen eigen ist.
Wir stellen in diesem Beitrag ein Konzept vor, das es erlaubt, Objekte in verteilten Systemen flexibel implementieren und
konfigurieren zu k?nnen. Besonderes Gewicht legen wir auf die Unterstützung des Objektentwicklers und -implementierers, ohne
auf die Modellierungsvorzüge des Objektmodells zu verzichten. Wir diskutieren die Anforderungen und leiten daraus unser Entkopplungskonzept
für verteilte Objektsysteme ab. Auf der Basis der CORBA wurde ein Prototyp erstellt, der die Umsetzung dieser Anforderungen
demonstriert.
Eingegangen am 1. Juli 1997 / Angenommen am 6. Februar 1998 相似文献
18.
W. Pfannenstiel 《Informatik - Forschung und Entwicklung》1999,14(4):179-192
Zusammenfassung. Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die
Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles
Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler
Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen
Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt
unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen
überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf.
Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999 相似文献
19.
Judith Gebauer und Markus Raupp 《Informatik - Forschung und Entwicklung》2000,15(4):215-225
Zusammenfassung. Das Internet und darauf aufbauende Technologien er?ffnen neue Potentiale für zwischenbetriebliche Informationssysteme und
f?rdern die elektronische Unterstützung von Gesch?ftsbeziehungen. Dabei bleibt jedoch das grunds?tzliche Problem bestehen,
da? der Hauptinvestor jeweils eine gewisse Anzahl an Teilnehmern ben?tigt, um eine angemessene Verzinsung der für die Systementwicklung
und -implementierung eingesetzten Ressourcen zu erreichen. Da es sich im zwischenbetrieblichen Kontext bei den Transaktionspartnern
in der Regel um entscheidungsautonome Organisationseinheiten handelt, kann davon ausgegangen werden, da? die kritische Masse
nur dann erreicht wird, wenn sich für die Teilnehmer selbst wiederum eine angemessene Verzinsung der für Anbindung und Systemanpassung
notwendigen individuellen Aufwendungen ergibt.
Dem Hauptinvestor stehen dabei eine Reihe von Gestaltungsoptionen zur Verfügung, denen jeweils unterschiedliche Erfolgsfaktoren
zuzuordnen sind. In der Vergangenheit dominierten einerseits auf Zwang ausgerichtete, stark kompetitive Vorgehensweisen und
andererseits kooperative Strategien, wie etwa die freiwillige Beschr?nkung der Anzahl an Zulieferbeziehungen im Rahmen vertrauensbildender
Ma?nahmen. Mit dem Aufkommen offener Kommunikationsstandards und neuer Technologien lassen sich diese von relativ geringen
zus?tzlichen finanziellen Belastungen gekennzeichneten Strategien m?glicherweise nicht mehr aufrechterhalten, und es wird
notwendig, neue Optionen in Betracht zu ziehen, wie etwa die Subventionierung einzelner Systemteilnehmer oder die Verbesserung
des Gesamtsystems, die jeweils sowohl kompetitive als auch kooperative Elemente aufweisen.
Der vorliegende Beitrag diskutiert diese These am Beispiel zwischenbetrieblicher elektronischer Katalogsysteme, wie sie in
jüngster Zeit im Kontext elektronischer Absatz- und Beschaffungssysteme sowie elektronischer M?rkte an Bedeutung gewinnen.
Eingegangen am 16. Dezember 1999 / Angenommen am 15. April 2000 相似文献
20.
Henrik Loeser 《Informatik - Forschung und Entwicklung》1998,13(4):196-216
Zusammenfassung. Die rasche Verbreitung und einfache Nutzungsm?glichkeit des World Wide Web (WWW) hat heute schon zu einer Vielzahl Web-basierter
Datenbankanwendungen geführt. Man geht jedoch davon aus, da? das eigentliche Wachstum des WWW und seiner Anwendungen durch
die Fortschritte in der Kommunikations- und Informationstechnik erst noch bevorsteht [10]. In diesem Beitrag stellen wir die
bei der Realisierung Web-basierter DB-Anwendungen eingesetzten Techniken vor. Hierzu untersuchen wir zun?chst typische DB-Anwendungen,
die über das WWW abgewickelt werden, um sie anhand ihrer Kriterien charakterisieren zu k?nnen. Daran anschlie?end diskutieren
und analysieren wir nach einem überblick die unterschiedlichen Realisierungstechniken im Detail.
Eingegangen am 22. Juli 1998 / Angenommen am 22. Oktober 1998 相似文献