首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
Zusammenfassung.   Die Bereitstellung eines pr?zisen, effizienten und m?glichst vollst?ndigen Zugriffs auf aktuelle Informationen im Internet ist eine grundlegende Voraussetzung für die Weiterentwicklung des elektronischen Handels. Dieser Beitrag zeigt, wie themenspezifische Suchwerkzeuge mit Hilfe mobiler Programme eine solche Bereitstellung leisten k?nnen. Der vorgestellte Ansatz wird durch messdaten-basierte Simulationen sowie anhand einer Fallstudie evaluiert. Eingegangen am 15. Dezember 1999 / Angenommen am 10. April 2000  相似文献   

4.
    
Zusammenfassung. Alle Informationssysteme ben?tigen und erzeugen Daten. Kurz: Jedes System ben?tigt eine Datenversorgung. In dieser Arbeit charakterisieren wir deshalb Informationssysteme hinsichtlich ihrer Datenversorgung und diskutieren m?gliche Ans?tze. Der Schwerpunkt liegt auf datenintensiven Systemen, die viele Daten lesen und schreiben. Als Anwendungsszenario dienen uns Entwurfsumgebungen und die Modellierung von Produktdaten über den STEP-Standard (ISO 10303). Nach einer Klassifikation von Datenquellen stellen wir verschiedene Datenversorgungsstrategien vor, die auf dem OMG-Standard CORBA basieren. Sie werden Java-basierten Verfahren im Bereich des Intra-/Internets gegenübergestellt. Zur Evaluierung ausgew?hlter Verfahren dient uns ein modularer Prototyp, der auf der von uns entwickelten und mittlerweile standardisierten Anbindung der SDAI-Schnittstelle von STEP an die Sprache Java basiert. Eingegangen am 12. Januar 2000 / Angenommen am 23. M?rz 2000  相似文献   

5.
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen) werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation generiert, die auf programmierten Graphersetzungsregeln basiert. Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001  相似文献   

6.
7.
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs- (QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag ab. Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000  相似文献   

8.
Zusammenfassung.   Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen. Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes, wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund. Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001  相似文献   

9.
    
Zusammenfassung. Traditionelle und deduktive Informationssysteme werden heute immer noch isoliert voneinander modelliert und implementiert. Für die meisten Benutzer sind jedoch Systeme wichtig, die ihren allt?glichen Informationsbedarf decken und darüber hinaus deduktive F?higkeiten besitzen. Der bekannte Entity-Relationship-Ansatz zur konzeptionellen Datenmodellierung wird in dieser Arbeit so erweitert, da? damit solche integrierten Systeme modelliert werden k?nnen. Au?erdem wird eine Klassifizierung ableitbarer Daten eingeführt, die dem Analytiker Hilfestellung bei der Frage gibt, welche ableitbaren Daten bei der Modellierung berücksichtigt werden sollen und welche nicht. Eingegangen am 2. November 1994 / Angenommen am 30. M?rz 1995  相似文献   

10.
Zusammenfassung.   Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben, bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen schlie?t dieser Beitrag. Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002  相似文献   

11.
12.
Zusammenfassung.   Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm, das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment. Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter Experimente in der Softwaretechnik. Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999  相似文献   

13.
Zusammenfassung.   Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit (PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen, die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen und komplexe Zusammenh?nge innerhalb der Daten zu finden. Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002  相似文献   

14.
Zusammenfassung.   Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln. Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs, welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog (das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser konsequent normkonformen Gestalt leider immer noch nicht anzutreffen. Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000  相似文献   

15.
Zusammenfassung.   Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen, verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben. Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998  相似文献   

16.
Zusammenfassung.   Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV. Eingegangen am 23. Dezember 1998 / Angenommen am 16. Juni 1999  相似文献   

17.
Zusammenfassung.   Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf. Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999  相似文献   

18.
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits- und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden. Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert. Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999  相似文献   

19.
Zusammenfassung.   In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen, die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen. Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver Logik basieren. Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998  相似文献   

20.
Zusammenfassung. Die Physikalisch-Technische Bundesanstalt mu? alle eichpflichtigen Me?ger?te prüfen. Da heute fast jedes Me?ger?t durch Software gesteuert wird, mu? sichergestellt werden, da? der Datenpfad vom Sensoreingang zur Anzeige (Eichpfad) nicht durch externe Faktoren beeinflu?t werden kann. Das VALSOFT-Werkzeug erkennt, analysiert und visualisiert Beeinflussungen der Eichpfade. Grundlage der Analyse sind Program-Slicing und Constraint-Solving. Zu beliebigen Programmpunkten (z. B. Me?wertausgaben) k?nnen diejenigen Anweisungen bestimmt werden, die diesen Punkt beeinflussen (sog. Slice). Zus?tzlich k?nnen genaue Bedingungen berechnet werden, unter denen verd?chtige Datenflüsse stattfinden (sog. Pfadbedingungen). Anwendungen in anderen sicherheitskritischen Bereichen sind ohne weiteres m?glich. Eingegangen am 3. November 1998 / Angenommen am 23. M?rz 1999  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号