EUR-Lex Access to European Union law


Danach stellen wir zwei neue erfolgsversprechende Ansätze vor: The maps reflect groups of flies that exhibit similar structure in local brain areas.

"Sozialversicherungskarte" Italian translation


However, for logic programs with negation, these operators may be nonmonotone, and in this case the fixpoint theory of Tarksi and Knaster is not applicable. Approximation Theory, on the other hand, is an algebraic framework for studying fixpoints of monotone and nonmonotone lattice operators, and thus extends the theory of Tarski and Knaster to the more general class of arbitrary lattice operators.

In the first part of the thesis we extend the classical van Emden-Kowalski operator, and the classical Fitting operator to the class of disjunction-free HEX programs, and uniformly define ultimate Kripke-Kleene-, ultimate well-founded-, and 3-valued ultimate answer-set semantics by applying Approximation Theory.

As a result, we obtain well-supported 2-valued ultimate answer-set semantics, and well-founded semantics compatible with the standard FLP-answer-set semantics. For monotone disjunction-free HEX programs, 2-valued answer-set semantics coincide with the standard FLP-answer-set semantics.

However, by combining ideas from Approximation Theory, logic programs with aggregates, and disjunctive logic programming, we define 2-valued ultimate answer-set semantics of disjunctive HEX programs based on non-deterministic operators. We show that these semantics are minimal, supported, and derivable in terms of bottom-up computations. As HEX programs are generic formalisms, the obtained semantics can be applied for a range of program classes.

This thesis deals with the visualisation of answer sets. Although ASP is an acknowledged formalism in logic-based artificial intelligence, development tools for supporting the programmer during coding are missing. A characteristic feature of solvers is that they return these answer sets as textual output on the screen. When the complexity of the problems rises, the output of the solver often gets larger.

In this thesis, we address this problem by developing an appropriate visualisation system, Kara, for answer sets. By writing a visualisation program, the user has the possibility to define the graphical representation of the answer set. Thus, the combination of an answer set with the corresponding visualisation program defines the visualisation of the answer set. In this thesis, a visualisation language is presented. The language consists of special predicates dedicated to several shapes and properties of these representations.

The result of combining a given answer set with a visualisation program written by the user outputs in turn an answer set, which, when executed by a solver, can then be processed further by Kara. The tool Kara also allows the user to edit the visualisation graphically.

While editing, the user may generate new sets of atoms referred to as interpretations which are not necessarily answer sets of the original answer-set program. This should ease the debugging process. Due to the visualisation language, the answer set of the visualisation is in general not an answer set of the original answer-set program.

Thus, Kara offers the user the possibility to compute the corresponding interpretation of the original answer-set program from the actual visualisation. The problem of computing the interpretation corresponding to the original program is represented as an abduction problem. This problem is in turn encoded by an abduction program, which - when executed with a solver - outputs the interpretation corresponding to the original program. Diese Spezifikationen können dann zum einen dazu verwendet werden die durch eine Testsuite erreichte Codeabdeckung zu ermitteln und zum anderen dazu genutzt werden eine abdeckende Testsuite zu erzeugen.

Daher wird ein neuer Interpreter entwickelt, der den Heap eines Programms auf exakte Weise abbildet. Die exakte Nachbildung des Heaps über eine Programmausführung hinweg ist resourcenaufwändig und daher ist es nicht praktikabel sämtliche Programmzustände in einer unoptimierten Datenstruktur zu speichern.

Der neue Interpreter wird mit dem bereits bestehenden Interpreter experimentell verglichen um die Laufzeitunterschiede der beiden Interpreter abzuschätzen. Concolic testing is an automated software testing method that combines concrete and symbolic execution to achieve high code coverage and expose bugs in the program under test.

We implemented several extensions to the openly available concolic testing tool CREST, and evaluated several aspects of it on the programs replace, grep, sed and Vim. We further describe a procedure to effectively solve constraints during concolic testing by using the push and pop operations commonly provided by SMT solvers.

In an experimental evaluation on constraints generated by CREST during concolic execution on grep and Vim, the push-pop method outperformed all other methods we tried in most cases.

In the second part of this thesis, we discuss the issue of exposing concurrency bugs. We survey several existing tools for finding such bugs, and describe 22 different concurrency bug patterns. Concurrency bug patterns are bug patterns that arise in the context of concurrent programming, and are typically obtained as abstractions of concrete bugs.

The study of bug patterns can prevent programmers from making similar mistakes, and can provide guidance for developers of bug exposing techniques and designers of programming languages and APIs. Autonome Fehlererkennung bei Robotern mithilfe eines künstlichen Immunsystems. Dementsprechend hoch sind die Kosten, welche in der Wartungsphase entstehen.

Aus diesem Grund ist die Verbesserung der Wartbarkeit ein oft gewünschtes Ziel. In der vorliegenden Arbeit wird untersucht, ob der Einsatz aspektorientierter Programmierung Einfluss auf die Wartbarkeit hat und ob aspektorientierte Software einfacher oder schwieriger zu warten ist als vergleichbare objektorientierte Software. Zu diesem Zweck werden Einflussfaktoren auf die Wartbarkeit identifiziert und die Auswirkung der aspektorientierten Programmierung auf diese untersucht.

Des Weiteren wird Software aus unterschiedlichen Domänen, die sowohl in einer objektorientierten als auch in einer aspektorientierten Variante vorliegt, zur Analyse herangezogen. Auf beide Versionen der untersuchten Anwendungen werden Wartungsschritte angewendet und die Ergebnisse verglichen. Um Aussagen über die Changeability treffen zu können, werden Änderungen, wie sie typischerweise in der Wartungsphase vorkommen, durchgeführt.

Um Unterschiede bezüglich Testability aufzuspüren, werden für die objektorientierte und aspektorientierte Varianten der ausgewählten Programme Testfälle verfasst. Die Analyse ergibt, dass aspektorientierte Programme besonders bezüglich der Streuung der Änderung besser als ihre objektorientierten Pendants abschneiden. Aus der Testability Untersuchung gingen starke Hinweise auf eine bessere Eignung aspektorientierter Software für unabhängige Tests hervor.

Es wurden aber auch neue Testschwierigkeiten erkannt, welche zu einer höheren Testkomlexität führen können. The rapid development of the Internet and its increasing popularity required a refinement of communication paradigms which represented the de facto standard a few years ago.

In recent years a computer network consists of several clients and a central server, but this network design is antiquated and should be avoided for high performance systems. A scalable modern network consists of hundreds or thousands of clients which exchange data with each other without a required central authority. A concrete implementation of this communication pattern is the space based computing paradigm.

These high flexible networks introduce additional difficulties. Whereas in the past a centralized server was easily replicated or mirrored to avoid a loss of data or a service interruption, this approach is more difficult in current space based computing paradigms.

Due to the fact that these networks do not contain a centralized data store respectively it is not always obvious on which client a portion of data has been persisted.

Each client in the space contains a part of the knowledge of the whole network. Similar to a database cluster, this data has to be replicated and distributed among other clients to avoid a loss of data, if a client disconnects. This work introduces a replication mechanism for MozartSpaces, which follows the space based computing approach. This mechanism allows a flexible replication of the space content. This flexibility is reached by the Replication Manager which uses concrete plugins to control the replication of the space content.

Additionally, the Replication Manager contains a quality of service component which is responsible for ensuring some replication parameters like the minimum number of replicas. Diese Arbeit untersucht, ob fehlerhaftes Verhalten eines Roboters zur Laufzeit mithilfe eines künstlichen Immunsystems erkannt werden kann.

Der Einsatz von Robotern auf dem Mond, in Katastrophengebieten oder auch auf dem Spielfeld des Robocups erlaubt häufig kein menschliches Eingreifen. Das selbstständig agierende System muss in vielen Situationen autonom Fehlerfälle erfassen, um darauf im laufenden Betrieb reagieren zu können. Die Abdeckung deterministisch auftretender Fehler durch Ausnahmebedingungen ist häufig nicht ausreichend. Aufgrund dessen werden Ansätze aus der Disziplin des maschinellen Lernens eingesetzt, um den Roboter die Anomalien autark erkennen zu lassen.

Künstliche Immunsysteme stellen einen dieser Ansätze dar, die erlauben, fehlerfreie und gefährliche Zustandsmuster zu unterscheiden. Biologische Immunsysteme sind dabei eine Inspirationsquelle für die Algorithmen und deren Bestandteile. Ziel dieser Diplomarbeit ist es, ein Robotersystem mittels künstlichen Immunsystems in die Lage zu versetzen, sowohl deterministisch als auch indeterministisch auftretende Fehler mit unbekannten Quellen zur Laufzeit zu registrieren und indessen deutlich von fehlerfreien Zuständen zu unterscheiden.

Dabei dienen die Reaktionszeit des Immunsystems sowie die Anzahl der falsch eingeschätzten Zustände als Evaluierungskriterien. Die erstellte Infrastruktur wird im Simulator und am Roboter selbst im Spielbetrieb getestet.

Im Rahmen des Robocup konnte das implementierte System bereits erfolgreich vorgestellt werden. Coordination of processes within a distributed application is a difficult task. Space based computing solves the coordination problem by writing information into a virtual shared medium called the space.

It decouples the processes and eliminates explicit communication between the processes. Until now MozartSpaces an implementation of XVSM did not support persistence - all data was lost when the space was shut down or crashed. Previously it was attempted to solve this problem by either implementing persistence as orthogonal functionality with aspects or by replacing the core of MozartSpaces with a database.

Unfortunately both approaches have serious drawbacks: A new approach had to be found. To our knowledge there is currently no space based middleware that can run and store data on a mobile platform without. The solution proposed in this thesis is a new persistence layer which is tightly integrated into the core of MozartSpaces. The persistence layer hides the database-specific details and can use different database engines. The performance of the persistence was evaluated with a benchmark suite.

Using a database also significantly reduced the memory footprint. An important requirement was also the energy-efficiency of the persistence on mobile devices with the Android OS. This goal was reached only partially because there are no energy profilers that can measure the energy consumption of all relevant components on a scale small enough to be usable for code optimization.

Analyse, Systemdesign und Architekturentwurf einer elektronischen Gesundheitsakte für Nutztiere. Konzept und Implementierung einer mobilen Applikation zum Zwecke der Wundidentifikation und Wunddokumentation.

Entwurf und Entwicklung eines mobilen Patientendatenerfassungssystems im Rettungsdienst. Diese Diplomarbeit beschäftigt sich mit einem System zur Speicherung von gesundheitsrelevanten Daten aus der Nutztierbranche. Das Ziel dieser Arbeit besteht darin, einen Softwarearchitekturentwurf für ein derartiges System zu entwickeln.

Dabei geht es darum, die einfache und effiziente Verarbeitung von Daten, die Möglichkeit zur lückenlosen Dokumentation sowie wirtschaftliches Management innerhalb der Tierkliniken und Tierarztpraxen zu ermöglichen. Vor dem Systemdesign und dem Entwurf wird die derzeitige Lage am Markt, der gesetzliche Rahmen sowie die Technologiestandards, die dabei zum Einsatz kommen könnten, analysiert.

Weiters werden die Anforderungen an dieses System charakterisiert und Stakeholder definiert, für die ein Rollenkonzept entwickelt wird. Aus den gewonnenen Ergebnissen entsteht der konzeptionelle Entwurf, der neben einer textuellen Beschreibung durch den Einsatz von UML auch eine visuelle Darstellung liefert. Die Analyseergebnisse stammen aus umfangreichen Internetrecherchen sowie Gesprächen mit Fachleuten aus der Nutztierbranche.

Der Nutzen dieser Arbeit liegt in einem System, das den gesundheitlichen Zustand, die bisherige Krankengeschichte und die verabreichten Medikamente an ein Tier lückenlos dokumentiert sowie diese Daten zentral gesammelt verfügbar macht.

Ein derartiges System trägt sowohl zur Verbesserung der Nahrungsmittelqualität sowie zu einer besseren Überwachung von Krankheiten bei, da durch die zentral verfügbaren Daten eine bessere Kontrolle möglich wäre. Das zentrale Ergebnis dieser Arbeit liefert durch die ausführliche Analyse und dem daraus entstehenden konzeptionellen Entwurf eine solide Grundlage für weitere Entwicklungen im Bereich der Umsetzung einer elektronischen Gesundheitsakte für Nutztiere.

Die vorliegende Arbeit ist im aktuellen Forschungsbereich von eHealth, mHealth und pHealth positioniert. Zunächst werden die Grundlagen und Begriffe erläutert und anhand einer umfassenden Literaturrecherche die Akteure, Services und Prozesse des eHealth identifiziert.

Der Fokus dieser Diplomarbeit liegt auf der Wunddokumentation, die essentieller Bestandteil des Wundmanagements und wichtig für die qualitative Bewertung des Wundheilungsprozesses ist.

Als Aufgabenstellung wurde eine Android App entwickelt, die die Funktionalitäten eines bereits existierenden Algorithmus zur Bildanalyse für Smartphones zur Verfügung stellt. Um das konkrete Einsatzumfeld dieser App bestimmen zu können, wurden im Zuge der detaillierten Domänenanalyse die technischen und fachlichen Anforderungen an eine medizinische App zur Wundidentifikation erhoben. Aufgrund dieser Analyse wurde ein Prototyp entwickelt, der als Basis für weitere Studien dienen soll.

Um das Problem auf einer ganzheitlichen Ebene zu lösen, wurde mit diesem Prototypen eine modulare Systemarchitektur entworfen. Die Wundbilder werden durch den Bildanalysealgorithmus kalibriert, segmentiert und vermessen.

Die Formularfelder eines Web-Formulars, sowie die dahinter liegenden Daten, sollen durch Formeln und Bedingungen miteinander in Beziehung gesetzt werden. Durch Eingabe von Werten in einzelne Felder werden Berechnungen ausgelöst, die wiederum den Wert anderer Felder bestimmen. Es werden die Begriffe definiert und eine Ubersicht uber das wissenschaftliche Umfeld der Modellierung von Webformularen geboten.

Der zweite Teil widmet sich dem Entwicklungsprozess der Sprache. Zuerst wird der Aufwand der Entwicklung einer neuen Sprache begründet, indem die Vor- und Nachteile der Alternativen abgewogen werden. Nach einer Beschreibung des Zielsystems werden diverse Themen wie Zyklenfreiheit, Ausführungsreihenfolge, Ausführungszeit und -ort behandelt, die bei der Integration beachtet werden müssen.

Derzeit wird die Dokumentation im Rettungsdienst hauptsächlich auf Papierformularen durchgeführt. Im Rahmen der Anforderungsanalyse mithilfe von User Interviews zeigte sich, dass die befragten Sanitäter mit der papierbasierten Dokumentation nur wenig zufrieden sind - umständliches Handling, schlechte Lesbarkeit, sowie geringe Datenkorrektheit sind die Hauptgründe. Aus den Befragungen ergab sich, dass die Teilnehmer die im Vorfeld formulierten Vorteile eines elektronischen Dokumentationssystems durch den Test bestätigt sahen.

Imperative Programmiersprachen sind in praktisch allen technologischen Bereichen verbreitet, wobei Programme verschiedene Arten von Berechnungen spezifizieren. Für viele praktische Zwecke ist die automatisierte Analyse semantischer Eigenschaften von Programmen, wie die Terminierung und Äquivalenz, nützlich. Wir stellen ein neues Vorgehen zur automatisierten semantischen Analyse von Programmen bereit durch die Kodierung ihres Verhaltens in die formale Logik.

Wir machen das in einer Weise, in der Modelle dieser Kodierungen den Durchführungen der Programme entsprechen. Mit anderen Worten, wir weisen imperativen Programmen eine modelltheoretische Semantik zu.

Diese Kodierung ermöglicht es semantische Eigenschaften von Programmen vor allem Terminierung und Äquivalenz in der Sprache der formalen Logik auszudrücken. Auf diese Weise reduzieren wir das Schlussfolgern diverser semantischer Eigenschaften von Programmen zu Reasoning-Verfahren der Beschreibungslogik. In praktischer Hinsicht führt dieses Vorgehen direkt zu Algorithmen für das automatisierte Schlussfolgern für einige Fragmente der Programmiersprachen d.

Zyklusfreie Programme oder Programme beschränkt auf endliche numerische Bereiche. In theoretischer Hinsicht ermöglicht das Vorgehen weitere, weniger eingeschränkte Fragmente der Programmiersprachen zu identifizieren, wofür einige Aufgaben des Schlussfolgerns entscheidbar sind. Wir identifizieren Eins solcher Fragmente, welches auf endliche Aufteilungen des Zustandsraums basiert, und wir illustrieren, welche Klasse von Programmen zu diesem Fragment gehört.

For this purpose a memetic algorithm is enhanced by a solution archive, which is implemented in two different ways. Finally, the results of using the solution archive with different configurations of the memetic algorithm are compared to each other.

Cross-cut shredded text documents are documents that are cut in rectangular pieces using a shredding device. The aim is to fit the pieces in such a way next to each other so that the original document is reconstructed.

Since this problem is NP-complete several heuristic approaches exist. Some of the best results are delivered by a memetic algorithm MA , which is an extension of an evolutionary algorithm EA. One of the main problems of this kind of algorithms is the loss of diversity in later generations because a lot of solutions are equal to each other.

To circumvent this problem, already generated solutions can be stored and looked up in a solution archive so that only new solutions are accepted by the EA.

The insert and the search method for this datastructure have to be as efficient as possible because all solutions generated by the EA are inserted and looked up in the archive. Another requirement of the solution archive is to generate a new solution efficiently if a duplicate was found. A trie-based datastructure meets all the requirements since insertion and search run in time O h where h is the height of the trie, which is bounded by the size of the input.

It was tested if the solution archive helps the memetic algorithm to find a better solution in the same amount of time. The results showed that in most cases the memetic algorithm in combinaion with the solution archive performed only as good as the memetic algorithm alone. This is also because of the vast memory consumption of the solution archive, which made testing very difficult. Shotgun proteomics experiments generate a large amount of raw data.

Therefore, an appropriate data analysis is required to separate useful from superfluous information. However, common database search engines, used for identifying the peptides, throw away most of the information contained in MS2-spectra. Moreover, the benefit of the high mass-accuracy provided by current mass spectrometers is forfeited, as the precursors are usually not selected at the optimal time point where the intensity of the respective peptide is highest.

To compensate for these drawbacks sophisticated spectrum-preprocessing methods are necessary. In this thesis we studied the application of two ways of MS2-spectrum preprocessing to increase the number of spectra that can be identified by facilitating the identification step of the database search engine: First, different MS2-deisotoping and -deconvolution methods were analyzed.

They aim for the removal of isotope peaks and peaks of multiply-charged variants of the analyte peptides, which unnecessarily increase the search space. We demonstrate that these methods raise the confidence in correct identifications by eliminating obstructing peaks from the spectra and that they are nonetheless limited due to the design of the scoring algorithms of common search engines.

Secondly, to fully exploit the information that is provided by the high mass-accuracy, we developed a 3d-peak picking algorithm that does not rely on the peptide mass information of the single MS1-spectrum it was selected from for fragmentation, but additionally reconstructs the peptide's elution profile gathering many data points to obtain a statistically confident value for the mass.

Experiments confirmed that calculating the peptide masses from reconstructed 3d-peaks significantly increases the precision compared to mass values provided by the instrument.

We show that the high precision also increases the identification performance, especially for strict search tolerances. Weiteres gibt es unterschiedliche Produkttypen, die entweder nur in gewisse Abteilungen oder nicht mit anderen Produkttypen ins gleiche Abteil geladen werden dürfen.

Diese Arbeit behandelt zwei leicht unterschiedliche Problemdefinitionen die auf Anforderungen aus der Öl- und Nahrungsmittelindustrie eingehen. Die verschiedenen Kraftstoffe dürfen in beliebige Abteile geladen, aber nicht miteinander vermischt werden. In dieser Arbeit werden drei Lösungsansätze vorgestellt: Das verschachtelte Packproblem wird einerseits heuristisch mit Konstruktionsalgorithmen und andererseits mit einem Constraint Programming Modell gelöst.

Die Effektivität der Modelle und Algorithmen wurden auf drei verschiedenen Testdatensätzen evaluiert. Das exakte Verfahren kann, wie auch bei verwandten generalisierten Routingproblemen, nur auf relativ kleinen Probleminstanzen angewendet werden, während die heuristischen Ansätze in der Lage sind alle gegebenen Probleminstanzen relativ gut zu lösen.

Das multimodal home healthcare scheduling MHS Problem beschäftigt sich mit der Zuweisung von HeimhelferInnen zu PatientInnen unter Berücksichtigung von Präferenzen sowie gesetzlicher und vertraglicher Bestimmungen als auch mit der Erstellung von Touren anhand der zuvor festgelegten Zuteilung. In dieser Arbeit werden die weiteren entwickelten Lösungsmethoden, die in das bestehende Framework implementieren wurden, beschrieben und mit dem vorhandenen Lösungsansatz verglichen.

Da das MHS mit den gut untersuchten vehicle routing problem with time windows und dem nurse rostering problem verwandt ist, wurden drei Lösungsansätze aus diesem Bereich ausgewählt und an das MHS angepasst. Die erste Metaheuristik ist eine simulated annealing hyper heuristic, welche mittels einer Menge an so genannten low-level heuristics eine gute Lösung sucht. Bereits dieser Ansatz zeigte vergleichbar gute Ergebnisse mit dem existierenden Ansatz. Der zweite Lösungsansatz ist ein memetic algorithm.

Dieser erzielte die besten Ergebnisse bereits nach kurzer Zeit. Als dritter Ansatz wurde ein scatter search verwendet, welcher deterministischere Techniken anwendet als der zuvor genannte memetic algorithm. Die Resultate zeigen jedoch, dass dieser Ansatz sehr hohe Laufzeiten benötigt, um vergleichbar gute Ergebnisse zu erzielen. In einer Vielzahl an Tests wurden Entscheidungen bezüglich Parameter und Methoden auf ihre Auswirkung auf die Leistung der Ansätze überprüft sowie der bereits existierende Ansatz mit den in dieser Arbeit Beschriebenen anhand von Instanzen aus der Praxis verglichen.

Die Ergebnisse zeigen, dass vor allem der memetic algorithm sehr gute Ergebnisse erzielt. This thesis introduces the reader to the basics of constraint programming.

Furthermore, the constraint satisfaction problem modeling process, and the general procedure required to solve it is introduced. Constraint satisfaction problem solving concepts such as propagation and branching are explained for a general constraint satisfaction problem as well.

Interval constraint programming, a subclass of constraint programming where the domains of variables are intervals, is then introduced. Then, interval arithmetic is briefly presented. Afterwards, the peculiarities of interval constraint satisfaction problems are highlighted. Furthermore, generic consistency notions are introduced, followed with the description of hull consistency and box consistency, which are the two consistency notions relevant to interval constraint programming.

A method for enforcing both hull and box consistency is given. An extension of Gecode supporting interval constraint programming, that was developed alongside this thesis, is described in detail. The implementation relies on the Boost Interval library to handle intervals. The implemented extension was tested on three benchmarks, namely, Broyden Banded, Broyden Tridiagonal and Brown.

Broyden Tridiagonal evaluates the performance of box consistency propagation, whereas Brown evaluates hull consistency propagators. The final test of the extension is the 3D reconstruction problem. The formal description of the problem is given, and the results of the 3D reconstruction obtained with the extension are shown.

This work is concerned with the task of mathematical modeling and the heuristical resolution of complex scheduling problems in the context of automated IT environments.

In order to tackle a practical scheduling problem with the means of scientific optimization theory it is necessary to find a formalization in mathematical terms. This subproblem is considered in the first part of this work, where a number of models is examined for their adequacy. Because of their lack of flexibility, the classical machine scheduling models are discarded in favor of the broader project scheduling models.

This choice is justified by the fact that this model allows the modeling of resources in a more adequate way to capture the broader concept of a resource in IT environments. Furthermore it enables the formalization of complex timing constraints in a natural way. This increased flexibility comes with a tradeoff in the form of increased complexity. Therefore in the course of this work a software library has been implemented with the goal to provide solutions with high quality in a practical time frame by using heuristic optimization methods.

Following the proposals in the scientific literature genetic algorithms serve as the underlying metaheuristic. This work provides an overview on the details of available implementations from the literature and presents a combination of several approaches in the form of a flexible software library.

Furthermore we present new evolutionary operators which are proven to perform well in extensive benchmark tests. Archaeological monuments are nowadays preserved for future generations by means of digitization. To this end, laser scanners in conjunction with registered cameras are used to gather both the geometric and the color information.

The geometry is often triangulated to allow a continuous mapping of the photos onto the geometry. The color mapping for high-quality reconstructions of parts of the models is not without problems. In practice, the photos overlap. Now, assuming that a particular triangle receives color information from just one photo, there is a huge number of possibilities to map the photos onto the triangles.

This labeling problem is already covered in literature. There are also approaches for the leveling of the remaining seams. In this thesis, we improve common labeling approaches by the introduction of an accurate geometry-based occlusion detection. An octree is used to quickly filter out parts of the model that do not come into consideration for an occlusion anyway.

The occlusion detection prevents texturing of parts of the model with image material that does not contain the expected region, but the colors of an occluder.

Further, a proposed approach for seam leveling on meshes is improved by the introduction of a new term into the least squares problem that corresponds to the proposed leveling approach. This new term penalizes big leveling function values and helps to keep the leveled color values in the valid range. For the high-performance visualization of 3D models with a huge amount of textures, we make use of virtual texturing.

We present an application that generates the needed data structures atlas and tile store in significantly less time than existing scripts. Finally, we show how all the mentioned functionalities are integrated into a visualization application that can support a graphic artist in the post-processing of a digitized archaeological monument.

While a huge body of soft shadow algorithms has been proposed, there has been no methodical study for comparing different real-time shadowing algorithms with respect to their plausibility and visual appearance. Therefore, a study was designed to identify and evaluate scene properties with respect to their relevance to shadow quality perception. Since there are so many factors that might influence perception of soft shadows e. The novel evaluation concept not only captures the predominant case of an untrained user experiencing shadows without comparing them to a reference solution, but also the cases of trained and experienced users.

We achieve this by reusing the knowledge users gain during the study. Moreover, we thought that the common approach of a two-option forced-choice-study can be frustrating for participants when both choices are so similar that people think they are the same. To tackle this problem a neutral option was provided. For time-consuming studies, where frustrated participants tend to arbitrary choices, this is a useful concept.

Speaking with participants after the study and evaluating the results, supports our choice for a third option. The results are helpful to guide the design of future shadow algorithms and allow researchers to evaluate algorithms more effectively.

They also allow developers to make better performance versus quality decisions for their applications. One important result of this study is that we can scientifically verify that, without comparison to a reference solution, the human perception is relatively indifferent to a correct soft shadow. Hence, a simple but robust soft shadow algorithm is the better choice in real-world situations.

Semi-automatic Annotation on Image Segmentation Hierarchies. The human face provides a rich source of information which can be exploited to diagnose facial impairments. Facial palsy is one of these impairments, and is caused by restrictions of the nerval actuation of muscles responsible for facial expressions. The main symptoms of this condition are asymmetrical facial movement and partial facial paralysis.

To measure its progress, physicians require clinical measures extracted from those locations of the face which provide most information about the facial expression. Small artificial markers indicate these locations by being placed on the patient's face before an evaluation session.

A video of the patient is recorded which is used to localize these markers in every frame. This task is currently performed manually by an operator and can take up to 5 hours for a single video. Object tracking refers to the estimation of the position of objects from an image sequence. Illumination and occlusion are considered as the main problems when tracking artificial objects. Natural objects, such as the human face, have a high potential for deformation and are characterized by an irregular texture.

As not only one, but multiple markers have to be tracked simultaneously, additional difficulty is imposed by ensuring that markers can be uniquely identified. The thesis explores the possibility of tracking these markers semi-automatically by a applying a sequential Bayes estimation technique, which assesses a set of hypothesis using their congruence with the target model.

Hence, the location of each marker can be accurately estimated and occlusions handled efficiently. To improve the accuracy and to reset lost markers, the clinical operator can interact with the tracking system. The results showed that our chosen methods are superior when compared with traditional trackers which use only a single hypothesis concerning the marker locations, while at the same time being able to preserve an accuracy comparable to manual tracking.

Tractographie, auch Fiber Tracking genannt, bezeichnet eine Bildverarbeitungstechnik die mittels diffusionsgewichteter Magnetresonanz Tomographie DWI Informationen über die anatomischen Strukturen des menschlichen Gehirns ableiten kann.

Zusätzlich findet diese Technik auch Anwendung in der Therapieplanung und Verlaufskontrolle bei Tumorpatienten. Bis zum heutigen Zeitpunkt wurden noch keine praxistauglichen Endanwendungen entwickelt, welche sich der Komplexität von Tractographie annehmen und die Daten und Informationen dementsprechend verarbeiten um das Potential von Fiber Tracking in einem klinisches Umfeld voll ausgeschöpfen zu können. Der Hauptanwendungsbereich ist dem radiologischen Umfeld zuzuordnen in dem performante und interaktive Bildverarbeitungsmechanismen von hoher Genauigkeit sowohl in 2D als auch in 3D den Alltag bestimmen.

Aus diesem Grund wurde bei der Umsetzung dieser Arbeit speziell auf diese Anforderungen eingegangen und ein effizientes Framework definiert welches die intuitive Visualisierung und Interaktion verschiedenster Tractographie Ergebnisdaten realisiert um so eine Basis zu schaffen, welche sowohl praxisnahen Anwendungen aus der Radiologie als auch Anforderungen aus dem Gebiet der Neurowissenschaften gerecht wird.

Als Zielsetzung galt eine Anwendung bereitzustellen, welche sowohl effizient, intuitiv als auch funktionell umfangreiche Eigenschaften aufweist und durch die Verwendung bereits existierender Standards die Integration und Verwendung externer Tractographie-verfahren motiviert.

Zusammen mit Radiologen und Wissenschaftlern wurden die umgesetzten Aufgabenstellung auf Benutzbarkeit, Funktionalität, Effizienz und Leistung für einen praxisnahen Einsatz evaluiert. Wenn es darum geht verschiedene Methoden der Objekterkennung in natürlichen Bildern zu vergleichen, stehen diverse etablierte Aufgaben im Mittelpunkt. Beispiele dafür sind Bildsegmentierung, semantische Bildsegmentierung und Objekterfassung.

Diese traditionellen Aufgaben der Objekterkennung haben gewisse Einschränkungen, wie etwa Mehrdeutigkeit in allgemeinerem Kontext. Es empfiehlt sich, das Formular für eine Unterstützungsbekundung mit den Angaben, die für die Überprüfung durch die Mitgliedstaaten erforderlich sind, in einem Anhang zu dieser Verordnung festzulegen.

Um die moderne Technologie als Instrument der partizipatorischen Demokratie sinnvoll einzusetzen, ist es angemessen, dass Unterstützungsbekundungen sowohl in Papierform als auch online gesammelt werden können.

Systeme zur Online-Sammlung sollten angemessene Sicherheitsmerkmale aufweisen, um unter anderem zu gewährleisten, dass die Daten sicher gesammelt und gespeichert werden. Zu diesem Zweck sollte die Kommission detaillierte technische Spezifikationen für Online-Sammelsysteme festlegen. Die Mitgliedstaaten sollten vor der Sammlung von Unterstützungsbekundungen die Konformität der Online-Sammelsysteme mit den Vorschriften dieser Verordnung überprüfen.

Die Kommission sollte eine Open-Source-Software bereitstellen, die mit den einschlägigen technischen und sicherheitsspezifischen Funktionen ausgestattet ist, die zur Einhaltung der Vorschriften dieser Verordnung in Bezug auf Online-Sammelsysteme notwendig sind. Es sollte gewährleistet werden, dass Unterstützungsbekundungen für eine Bürgerinitiative innerhalb eines bestimmten Zeitraums gesammelt werden.

Um zu gewährleisten, dass geplante Bürgerinitiativen ihre Relevanz behalten, und gleichzeitig der Schwierigkeit Rechnung zu tragen, unionsweit Unterstützungsbekundungen zu sammeln, sollte dieser Zeitraum zwölf Monate ab der Registrierung der geplanten Bürgerinitiative nicht überschreiten.

Wenn eine Bürgerinitiative die notwendigen Unterstützungsbekundungen von Unterzeichnern erhalten hat, sollte jeder Mitgliedstaat für die Prüfung und Bescheinigung der Unterstützungsbekundungen, die bei Unterzeichnern aus diesem Mitgliedstaat gesammelt wurden, verantwortlich sein. Angesichts der Notwendigkeit, den Verwaltungsaufwand für die Mitgliedstaaten zu begrenzen, sollten diese die entsprechenden Prüfungen innerhalb von drei Monaten nach Erhalt eines Antrags auf Bescheinigung auf der Grundlage angemessener Überprüfungen, etwa anhand von Stichproben, durchführen und ein Dokument ausstellen, in dem die Zahl der erhaltenen gültigen Unterstützungsbekundungen bescheinigt wird.

Die Organisatoren sollten gewährleisten, dass alle in dieser Verordnung niedergelegten einschlägigen Bedingungen vor Einreichung einer Bürgerinitiative bei der Kommission erfüllt sind.

Die Kommission sollte eine Bürgerinitiative prüfen und ihre rechtlichen und politischen Schlussfolgerungen getrennt darlegen. Ferner sollte sie auch ihr beabsichtigtes Vorgehen im Hinblick auf die Bürgerinitiative innerhalb von drei Monaten darlegen.

Wenn der Kommission eine Bürgerinitiative vorgelegt wird, die von der erforderlichen Anzahl von Unterzeichnern unterstützt wird und den anderen Anforderungen der vorliegenden Verordnung entspricht, sollten die Organisatoren berechtigt sein, diese Initiative auf einer öffentlichen Anhörung auf der Ebene der Union vorzustellen. Die Organisatoren einer Bürgerinitiative sollten entsprechend den anwendbaren einzelstaatlichen Rechtsvorschriften für jegliche von ihnen verursachte Schäden haften. Die Verordnung EG Nr.

Es ist von besonderer Wichtigkeit, dass die Kommission bei ihren vorbereitenden Arbeiten angemessene Konsultationen — auch auf der Ebene von Sachverständigen — durchführt. Diese Verordnung wahrt die Grundrechte und beachtet die Grundsätze, die in der Charta der Grundrechte der Europäischen Union verankert sind, insbesondere Artikel 8, wonach jede Person das Recht auf Schutz der sie betreffenden personenbezogenen Daten hat.

Organisatoren, die Mitglieder des Europäischen Parlaments sind, werden im Hinblick auf die Erreichung der Mindestzahl, die für die Bildung eines Bürgerausschusses erforderlich ist, nicht mitgerechnet.

Die Übersetzung der geplanten Bürgerinitiative in andere Amtssprachen der Union fällt in die Verantwortung der Organisatoren. Die Kommission richtet eine Kontaktstelle ein, die Informationen und Hilfe anbietet. In diesem Fall wird dies im Register entsprechend vermerkt. Für die Sammlung von Unterstützungsbekundungen dürfen nur Formulare verwendet werden, die den in Anhang III dargestellten Mustern entsprechen und in einer der Sprachfassungen vorliegen, die im Register für die betreffende geplante Bürgerinitiative angegeben sind.

Die in den Formularen angegebenen Informationen haben den im Register enthaltenen Informationen zu entsprechen. Für die Online-Sammlung von Unterstützungsbekundungen gilt Artikel 6. Unterzeichner dürfen eine bestimmte geplante Bürgerinitiative nur einmal unterstützen.

Nach Ablauf dieses Zeitraums wird im Register vermerkt, dass der Zeitraum abgelaufen ist, und gegebenenfalls, dass nicht die erforderliche Anzahl an Unterstützungsbekundungen eingegangen ist. Die Organisatoren können ein Online-Sammelsystem zur Sammlung von Unterstützungsbekundungen in mehreren oder allen Mitgliedstaaten verwenden.

Bevor sie mit der Sammlung von Unterstützungsbekundungen beginnen, beantragen die Organisatoren bei der zuständigen Behörde des betreffenden Mitgliedstaats die Bescheinigung, dass das zu diesem Zweck genutzte Online-Sammelsystem Absatz 4 entspricht.

Die Organisatoren veröffentlichen eine Kopie dieser Bescheinigung auf der für das Online-Sammelsystem verwendeten Website. Die Software wird kostenfrei zur Verfügung gestellt. Die Mitgliedstaaten erkennen die von den zuständigen Behörden anderer Mitgliedstaaten ausgestellten Bescheinigungen an.

Januar verabschiedet die Kommission entsprechend dem in Artikel 20 Absatz 2 genannten Regelungsverfahren technische Spezifikationen für die Umsetzung von Absatz 4. Diese Mindestzahlen entsprechen der Anzahl der im jeweiligen Mitgliedstaat gewählten Mitglieder des Europäischen Parlaments, multipliziert mit Überprüfung und Bescheinigung von Unterstützungsbekundungen durch die Mitgliedstaaten. Die Organisatoren legen die Unterstützungsbekundungen dem betreffenden Mitgliedstaat wie folgt vor:.

Auf dieser Grundlage stellen sie den Organisatoren eine Bescheinigung entsprechend dem Muster in Anhang VI über die Zahl der gültigen Unterstützungsbekundungen für den betreffenden Mitgliedstaat aus.

Eine Authentifizierung der Unterschriften ist für die Zwecke der Überprüfung der Unterstützungsbekundungen nicht erforderlich. Nach Erhalt der in Artikel 8 Absatz 2 genannten Bescheinigungen können die Organisatoren, sofern alle in dieser Verordnung genannten einschlägigen Verfahren und Bedingungen eingehalten wurden, die Bürgerinitiative zusammen mit Informationen über jedwede Unterstützung und Finanzierung der genannten Initiative der Kommission vorlegen.

Die genannten Informationen werden von der Kommission im Register veröffentlicht. Die Kommission und das Europäische Parlament stellen sicher, dass diese Anhörung im Europäischen Parlament stattfindet, dass gegebenenfalls andere Organe und Einrichtungen der Union, die unter Umständen die Teilnahme wünschen, an der Anhörung teilnehmen, und dass die Kommission auf geeigneter Ebene vertreten ist.

Die Organisatoren und die zuständige Behörde vernichten alle Unterstützungsbekundungen sowie etwaige Kopien derselben spätestens eine Woche nach Abschluss der genannten Verfahren durch eine endgültige Beschlussfassung. Die Organisatoren haften entsprechend dem geltenden einzelstaatlichen Recht für alle Schäden, die sie bei der Organisation einer Bürgerinitiative verursachen.

We also share information about the use of the site with our social media, advertising and analytics partners. Meaning of "Sozialversicherungskarte" in the German dictionary.

Health insurance card Small card confirming the membership of the holder of the card in a social security. Krankenversichertenkarte kleine Karte, durch die die Mitgliedschaft des Inhabers der Karte in einer Sozialversicherung bestätigt wird. Synonyms and antonyms of Sozialversicherungskarte in the German dictionary of synonyms. Examples of use in the German literature, quotes and news about Sozialversicherungskarte.

Ulrich Ammon, Rhea Kyvelos, Die Speicherung auf der Sozialversicherungskarte erfolgt so, dass eine Abbuchung auch in Teilbeträgen möglich ist. Auf diese Weise wird dem Bürger ein einfaches Instrument an die Hand gegeben, seine Steuerfreibeträge in eigener Jenner versuchte sich ins Gedächtnis zu rufen, wo sie ihre Sozialversicherungskarte hingelegt haben könnte, aber ihr Hirn war wie leergefegt.

Sie wusste nicht einmal, wann sie die Karte das letzte Mal gesehen hatte. Sie hatte sich nicht in die Wählerlisten eintragen lassen, hatte keine Zulassungsgebühren für einen Wagen bezahlt, hatte kein Grundstück gekauft, aber sie hatte eine Sozialversicherungskarte gehabt, die sie bei zwei Gelegenheiten für





Links:
Leitzinserhöhung der Federal Reserve | Goldman Sachs FX Handelsplattform | Psychologie von Schurkenhändlern | Institutionelle Aktien des vanguard total börsenindexfonds (vitsx) | Us marktindizes ytd | Iranische Ölpreise | Dow 30 Aktien CNN | Charts Börsencrash | Hi ho silbernes sherborne | Texas oil company aktien |