共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
Zusammenfassung. Die Bereitstellung eines pr?zisen, effizienten und m?glichst vollst?ndigen Zugriffs auf aktuelle Informationen im Internet
ist eine grundlegende Voraussetzung für die Weiterentwicklung des elektronischen Handels. Dieser Beitrag zeigt, wie themenspezifische
Suchwerkzeuge mit Hilfe mobiler Programme eine solche Bereitstellung leisten k?nnen. Der vorgestellte Ansatz wird durch messdaten-basierte
Simulationen sowie anhand einer Fallstudie evaluiert.
Eingegangen am 15. Dezember 1999 / Angenommen am 10. April 2000 相似文献
4.
《Informatik - Forschung und Entwicklung》2000,15(2):92-109
Zusammenfassung. Alle Informationssysteme ben?tigen und erzeugen Daten. Kurz: Jedes System ben?tigt eine Datenversorgung. In dieser Arbeit
charakterisieren wir deshalb Informationssysteme hinsichtlich ihrer Datenversorgung und diskutieren m?gliche Ans?tze. Der
Schwerpunkt liegt auf datenintensiven Systemen, die viele Daten lesen und schreiben. Als Anwendungsszenario dienen uns Entwurfsumgebungen
und die Modellierung von Produktdaten über den STEP-Standard (ISO 10303). Nach einer Klassifikation von Datenquellen stellen
wir verschiedene Datenversorgungsstrategien vor, die auf dem OMG-Standard CORBA basieren. Sie werden Java-basierten Verfahren
im Bereich des Intra-/Internets gegenübergestellt. Zur Evaluierung ausgew?hlter Verfahren dient uns ein modularer Prototyp,
der auf der von uns entwickelten und mittlerweile standardisierten Anbindung der SDAI-Schnittstelle von STEP an die Sprache
Java basiert.
Eingegangen am 12. Januar 2000 / Angenommen am 23. M?rz 2000 相似文献
5.
Bernhard Westfechtel 《Informatik - Forschung und Entwicklung》2001,16(3):125-144
Zusammenfassung. Wir pr?sentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalit?t
kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. AHEAD (Adaptable and Human-CenteredEnvironment for the MAnagement of Development Processes) unterstützt die Koordination von Entwicklern durch integriertes Management von Produkten, Aktivit?ten
und Ressourcen. Für das Management von Aktivit?ten werden dynamische Aufgabennetze angeboten, die sich durch nahtloses Verschr?nken
von Planen, Analysieren und Ausführen auszeichnen. Alle Managementdaten (z.B. Aufgabennetze, Versionshistorien oder Produktkonfigurationen)
werden intern in einheitlicher Weise durch Graphen repr?sentiert. Managementwerkzeuge werden aus einer formalen Spezifikation
generiert, die auf programmierten Graphersetzungsregeln basiert.
Eingegangen am 9. Juni 2000 / Angenommen am 20. M?rz 2001 相似文献
6.
7.
Dirk Meyerhoff Michael Timpe und Dirk Huberty 《Informatik - Forschung und Entwicklung》2000,15(3):133-139
Zusammenfassung. In diesem Artikel werden die für Internet-Anwendungen relevanten Qualit?tsziele und die sich daraus ergebenen Qualit?tssicherungs-
(QS-) und Testaufgaben dargestellt. Zun?chst werden die besonderen Architekturmerkmale von Internet-Anwendungen, sofern sie
Einflu?auf die QS haben, erl?utert. Auf der Basis eines in der Praxis bew?hrten generellen Vorgehens für die Qualit?tssicherung
und den Test bei der Software-Anwendungsentwicklung werden dann spezielle Vorgehensweisen für die QS und den Test von Internet-Anwendungen
eingeführt. Erkenntnisse aus der Praxis zum Thema Testwerkzeuge, Testautomatisierung und Testorganisation runden den Beitrag
ab.
Eingegangen am 14. Dezember 1999 / Angenommen am 31. M?rz 2000 相似文献
8.
Zusammenfassung. Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch
relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler
Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren,
wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, erm?glicht der erscheinungsbasierte Ansatz aufgrund
der Modellierung der Intensit?tswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte.
Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler L?sungen.
Die Form der Modellierung erlaubt neben der Einzelobjekterkennung auch die Berücksichtigung von heterogenem Bildhintergrund
und Mehrobjektszenen. Die dazu ben?tigten lokalen Merkmale entstehen durch r?umlich begrenzte Transformationen des Bildes,
wie beispielsweise Gabor- oder Wavelet-Transformationen. Die statistische Modellierung beschreibt die Verteilung dieser lokalen
Merkmale anhand einer Dichtefunktion, die sich bei der Hintergrund- und Mehrobjektmodellierung als Mischungsverteilung der
Einzelobjektverteilungen ergibt. Die Aufgabenstellungen des Erlernens und Erkennens von Objekten sind damit als Parametersch?tzprobleme
formal darstellbar. Dabei werden im einen Fall die Modellparameter und im anderen Fall die Lageparameter beziehungsweise die
Klassen von Objekten gesch?tzt. Die experimentelle überprüfung des Ansatzes anhand realer Objektaufnahmen durch CCD-Kameras
zeigt seine Brauchbarkeit zur Erkennung von 2D- und 3D-Objekten bei homogenem und heterogenem Hintergrund.
Eingegangen am 5. April 2000 / Angenommen am 20. Juli 2001 相似文献
9.
Otto Rauh 《Informatik - Forschung und Entwicklung》1995,10(3):128-138
Zusammenfassung. Traditionelle und deduktive Informationssysteme werden heute immer noch isoliert voneinander modelliert und implementiert.
Für die meisten Benutzer sind jedoch Systeme wichtig, die ihren allt?glichen Informationsbedarf decken und darüber hinaus
deduktive F?higkeiten besitzen. Der bekannte Entity-Relationship-Ansatz zur konzeptionellen Datenmodellierung wird in dieser
Arbeit so erweitert, da? damit solche integrierten Systeme modelliert werden k?nnen. Au?erdem wird eine Klassifizierung ableitbarer
Daten eingeführt, die dem Analytiker Hilfestellung bei der Frage gibt, welche ableitbaren Daten bei der Modellierung berücksichtigt
werden sollen und welche nicht.
Eingegangen am 2. November 1994 / Angenommen am 30. M?rz 1995 相似文献
10.
Stefan Conrad 《Informatik - Forschung und Entwicklung》2002,17(3):101-111
Zusammenfassung. Ein zentrales Problem bei der Integration heterogener Datenquellen ist die Bestimmung einer gesamtheitlichen Beschreibung
des integrierten Datenbestands. Ausgehend von den Beschreibungen (Datenbankschemata) der vorhandenen Datenbest?nde ist ein
integriertes Schema zu bilden, das als konzeptionelles Schema des Gesamtdatenbestands dient. Dieser Prozess wird als Schemaintegration bezeichnet. Ausgehend von einer abstrakten Systemarchitektur für f?derierte Datenbanksysteme, die als Basis für vielf?ltige
Integrationszenarien verwendet werden kann, stellen wir zun?chst eine Schema-Referenzarchitektur vor, die den Prozess der
Schemaintegration darzustellen hilft. Anschlie?end wird eine einfache Klassifikation von Integrationskonflikten wiedergegeben,
bevor wir die gemeinsamen Grundprinzipien vieler Schemaintegrationsverfahren vorstellen. Wir analysieren dann die St?rken
und Schw?chen der bekannten Schemaintegrationsverfahren. Aus dieser Analyse ergeben sich verschiedene Fragestellungen, die
aktuell Gegenstand der Forschung sind bzw. noch erforscht werden müssen. Mit einer kurzen Darstellung ausgew?hlter Fragen
schlie?t dieser Beitrag.
Eingegangen am 20. November 2001 / Angenommen am 21. M?rz 2002 相似文献
11.
12.
Zusammenfassung. Software-Entwurfsmuster sind eine intuitiv einleuchtende Idee, die viele Befürworter hat. Als Forscher dürfen wir die behaupteten
Wirkungen von Entwurfsmustern jedoch nicht einfach glauben, sondern müssen sie gründlich prüfen. Dieser Artikel beschreibt
die wichtigsten Behauptungen und entwickelt daraus zugeh?rige Forschungsfragen. Wir diskutieren die Methodik für ein Forschungsprogramm,
das die Fragen beantworten soll, und skizzieren praktische Beschr?nkungen, unter denen diese Forschung ablaufen mu?. Es folgt
eine kurze Beschreibung von drei kontrollierten Experimenten und den Hauptfolgerungen aus ihren Ergebnissen. So sollte man
zum Beispiel die Benutzung von Entwurfsmustern in einem Entwurf genau dokumentieren und Entwurfsmuster nicht einsetzen, ohne
alternative Entwürfe zu prüfen. Abschlie?end diskutieren wir ein im Rahmen des Forschungsprogramms geplantes viertes Experiment.
Der Beitrag dieses Artikels liegt vorrangig in einer Beschreibung und Diskussion wichtiger methodischer Aspekte kontrollierter
Experimente in der Softwaretechnik.
Eingegangen am 27. Oktober 1998 / Angenommen am 13. M?rz 1999 相似文献
13.
Tobias Rohatsch Gerhard P?ppel und Heinrich Werner 《Informatik - Forschung und Entwicklung》2002,17(2):53-59
Zusammenfassung. Die moderne und hoch komplexe Fertigung, z.B. in der Halbleiterindustrie, erfordert für die dabei anfallenden Messdaten der
Anlagen- bzw. Prozessparameter multivariate Analysemethoden. Eine dieser m?glichen Analysemethoden ist Projection Pursuit
(PP). Dieses Verfahren ist durch geschickte Wahl des so genannten Projektionsindex in der Lage, verschiedenste Datencharakteristika
zu detektieren und diese auf anschauliche Weise zu visualisieren. Bei den Projektionsindizes handelt es sich um Funktionen,
die eine Projektion auf unterschiedliche Merkmale hin bewerten und dabei jeder Projektion einen Funktionswert zuweisen. Dieser
Funktionswert spiegelt die Aussagekraft der Projektion (in Abh?ngigkeit vom verwendeten Index) wider. Die Auswahl bzw. der
Aufbau dieser Indizes ist hierbei von entscheidender Bedeutung. Alle hier vorgestellten Indizes zeichnen sich vor allem durch
ihren robusten Charakter gegenüber durch Ausrei?er kontaminierte Daten, wie sie in realen Datenszenarien vorkommen, aus. Die
durch Anwendung dieser Indizes gewonnenen Einblicke in die komplexe Struktur der Daten erm?glichen es, hochdimensionale Parameterabweichungen
und komplexe Zusammenh?nge innerhalb der Daten zu finden.
Eingegangen am 11. Februar 2002 / Angenommen am 14. Mai 2002 相似文献
14.
Steffen Skatulla Ralf Schaarschmidt Peter Pistor und Klaus Küspert 《Informatik - Forschung und Entwicklung》2000,15(3):161-170
Zusammenfassung. Bei relationalen Datenbanksystemen haben sich de-jure-Normen für SQL stetig weiterentwickelt; mit diesen Normen wird es einfacher, portable Datenbankanwendungen zu entwickeln.
Die SQL-Norm ruht auf zwei S?ulen, zum einen auf der Datenbanksprache SQL, zum anderen auf einer Vorgabe eines Datenbankkatalogs,
welcher die gespeicherten Daten beschreiben soll. Im vorliegenden Beitrag wird derjenige Teilbereich des Datenbankkatalogs
der aktuellen SQL99-Norm dargestellt, der bereits in der SQL92-Norm (ISO/IEC 9075:1992 bzw. DIN 66315) definiert ist und die
klassischen (nicht objektrelationalen) Elemente einer relationalen Datenbank beschreibt. In dieser Darstellung nimmt der zweischichtige
Spezifikationsansatz (Informationsschema, Definitionsschema) einigen Raum ein; mit seiner Hilfe weist SQL einen eleganten Weg, auf dem existierende Datenbanksysteme normkonforme Datenbankkataloge
bereitstellen k?nnen. Anhand des Datenbankmanagementsystems DB2 wird anschlie?end untersucht, wie ein normkonformer Datenbankkatalog
(das sogenannte Informationsschema) „oberhalb” des verfügbaren DB2-Katalogs realisiert werden kann, d. h. wie die vom Informationsschema
geforderten Sichten auf DB2-Katalogtabellen abgebildet werden k?nnen. Auf generelle Schwierigkeiten und M?glichkeiten einer
solchen Abbildung (ein- oder zweistufig) wird ebenso eingegangen wie auf Probleme, die sich speziell bei DB2 ergeben. In einer
prototypischen Realisierung konnte das Informationsschema bis auf wenige Einschr?nkungen komplett umgesetzt werden. Damit
wurde die Machbarkeit normkonformer Kataloge nachgewiesen. In heute verfügbaren DBMS-Produkten sind Datenbankkataloge in dieser
konsequent normkonformen Gestalt leider immer noch nicht anzutreffen.
Eingegangen am 5. M?rz 1999 / Angenommen am 1. Mai 2000 相似文献
15.
Dietrich Boles Markus Dreger Kai Gro?johann Cornelia Haber Andreas Kusserow Stefan Lohrum Dirk Menke Jochen Meyer Gerhard M?ller und Ricarda Weber 《Informatik - Forschung und Entwicklung》1998,13(3):110-121
Zusammenfassung. Ziele des MeDoc-Projektes waren die Konzeption, prototypische Entwicklung und Erprobung volltextbasierter Informations- und
Publikationsdienste für die Informatik, um den Informationsaustausch und die Literaturversorgung in der Wissenschaft effektiver
gestalten zu k?nnen. Dazu wurde im Rahmen des Projektes ein internet-basiertes System entwickelt, in dem Informatik & Fachinformation
im Volltext gespeichert, recherchiert, abgerufen und gelesen werden kann und das die Suche nach Informatik-Literatur in heterogenen,
verteilten Informationsquellen im Internet unterstützt. Das Informationsangebot ist dabei teilweise kostenpflichtig. In diesem
Artikel werden Ziele, Funktionalit?t und Architektur des MeDoc-Systems beschrieben.
Eingegangen am 19. Januar 1998 / Angenommen am 27. April 1998 相似文献
16.
Manfred Broy Franz Huber und Bernhard Sch?tz 《Informatik - Forschung und Entwicklung》1999,14(3):121-134
Zusammenfassung. Der Beitrag stellt AutoFocus vor, einen Werkzeugprototyp zur Entwicklung verteilter, eingebetteter Systeme auf der Grundlage formaler Techniken. AutoFocus unterstützt die Systementwicklung mit integrierten, im wesentlichen graphischen Beschreibungstechniken, mit deren Hilfe sowohl
unterschiedliche Sichten als auch verschiedene Abstraktionsebenen eines Systems beschrieben werden. Um konsistente und vollst?ndige
Beschreibungen sicherzustellen, bietet AutoFocus die M?glichkeit, Konsistenzbedingungen zu formulieren und Systembeschreibungen daraufhin zu überprüfen. Aus ausführbaren
Spezifikationen k?nnen Prototypen des entwickelten Systems erzeugt werden und in einer Simulationsumgebung ausgeführt und
visualisiert werden. Zur formalen Verifikation von Systemeigenschaften verfügt AutoFocusüber Anbindungen an Modellprüfungswerkzeuge wie -cke oder SMV.
Eingegangen am 23. Dezember 1998 / Angenommen am 16. Juni 1999 相似文献
17.
W. Pfannenstiel 《Informatik - Forschung und Entwicklung》1999,14(4):179-192
Zusammenfassung. Datenparallele Programmiermodelle sind derzeit die erfolgreichsten Programmiermodelle für Parallelrechner, sowohl was die
Effizienz der Ausführung als auch die Komplexit?t der Programmierung angeht. Es ist bisher jedoch nicht gelungen, ein paralleles
Programmiermodell zu entwickeln, das sowohl konzeptionell einfach und abstrakt ist, als auch effizient auf die Fülle paralleler
Rechnerarchitekturen zu übertragen ist. Das verschachtelt datenparallele Programmiermodell besitzt einige der gewünschten Eigenschaften eines parallelen Programmiermodells. Im Gegensatz zu den g?ngigen flach datenparallelen
Modellen gibt es in verschachtelt datenparallelen Modellen Mechanismen, die irregul?re Datenstrukturen und Berechnungen direkt
unterstützen. Dieser Artikel stellt einen kollektionsbasierten Ansatz für verschachtelten Datenparallelismus vor, gibt einen
überblick über den Stand der Forschung und zeigt offene Fragen in diesem Gebiet auf.
Eingegangen am 8. Januar 1999 / Angenommen am 24. Juni 1999 相似文献
18.
Wolfgang Reif 《Informatik - Forschung und Entwicklung》1999,14(4):193-202
Zusammenfassung. Im Spektrum der qualit?tssichernden Ma?nahmen im Software-Entwurf geh?ren formale Spezifikations- und Verifikationsmethoden
heute zweifellos zu den st?rksten Waffen in puncto Fehlererkennung und Nachweis von Korrektheitseigenschaften. Mit zunehmender
Wirtschaftlichkeit formaler Methoden und in Kombination mit klassischen Techniken der Qualit?tssicherung ergeben sich dadurch
neue, weitreichende M?glichkeiten. Die Wirksamkeit formaler Methoden beruht im wesentlichen auf der Mathematisierung von Teilen
der Software-Entwicklung und dem damit verbundenen Zwang zur Pr?zision. Auf dieser Basis k?nnen Fehler entdeckt, Korrektheits-
und Sicherheitseigenschaften nachgewiesen und die Auswirkungen von System?nderungen formal analysiert werden. Diese Methoden
eignen sich besonders für Anwendungen, an die traditionell h?chste Zuverl?ssigkeits- und Qualit?tsanforderungen gestellt werden.
Dieser Artikel gibt einen überblicküber verschiedene Einsatzm?glichkeiten formaler Spezifikations- und Verifikationsmethoden
und stellt das KIV System vor, ein fortgeschrittenes Werkzeug zur Anwendung formaler Methoden. Am Beispiel von KIV wird der
aktuelle Leistungsstand und die Wirtschaftlichkeit der Technologie erl?utert.
Eingegangen am 2. Februar 1999 / Angenommen am 10. Juli 1999 相似文献
19.
Ulrich Thiel André Everts Barbara Lutes und Kostas Tzeras 《Informatik - Forschung und Entwicklung》1998,13(3):147-158
Zusammenfassung. In diesem Beitrag wird eine „digitale Bibliothek” definiert als informationelle Umgebung, in der in integrierter Form verteilte
Informationsquellen zug?nglich sind. Die Suche ist normalerweise ein interaktiver Proze?, in dem verfügbare Informationen
in unterschiedlichen Formaten und in unterschiedlichen Kontexten benutzt werden. Ein wichtiges Forschungsthema im Bereich
digitaler Bibliotheken ist daher der Entwurf anwendungsspezifischer Methoden für den Zugang zu heterogenen Wissensquellen,
die sich bzgl. Thema, Format, Verfügbarkeit, Qualit?t und vieler anderer Eigenschaften stark unterscheiden k?nnen. Um dieser
Anforderung gerecht zu werden, müssen die eingesetzten Information-Retrieval-Systeme eine sehr pr?zise Suche erm?glichen.
Dabei reicht es nicht aus, lediglich Dokumente und Daten nachzuweisen, vielmehr müssen die gefundenen Informationen im Kontext
des Informationsbedarfs des Benutzers eingebunden sein. Für diese Aufgabe schlagen wir Retrieval-Methoden vor, die auf abduktiver
Logik basieren.
Eingegangen am 19. Januar 1998 / Angenommen am 28. Juli 1998 相似文献
20.
Jens Krinke Torsten Robschink und Gregor Snelting 《Informatik - Forschung und Entwicklung》1999,14(2):62-73
Zusammenfassung. Die Physikalisch-Technische Bundesanstalt mu? alle eichpflichtigen Me?ger?te prüfen. Da heute fast jedes Me?ger?t durch Software
gesteuert wird, mu? sichergestellt werden, da? der Datenpfad vom Sensoreingang zur Anzeige (Eichpfad) nicht durch externe Faktoren beeinflu?t werden kann.
Das VALSOFT-Werkzeug erkennt, analysiert und visualisiert Beeinflussungen der Eichpfade. Grundlage der Analyse sind Program-Slicing und Constraint-Solving. Zu beliebigen Programmpunkten (z. B. Me?wertausgaben) k?nnen diejenigen Anweisungen bestimmt werden, die diesen Punkt beeinflussen
(sog. Slice). Zus?tzlich k?nnen genaue Bedingungen berechnet werden, unter denen verd?chtige Datenflüsse stattfinden (sog.
Pfadbedingungen). Anwendungen in anderen sicherheitskritischen Bereichen sind ohne weiteres m?glich.
Eingegangen am 3. November 1998 / Angenommen am 23. M?rz 1999 相似文献