Refine
Year of publication
Document Type
- Article (1085)
- Conference Proceeding (344)
- Part of a Book (321)
- Contribution to a Periodical (237)
- Book (219)
- Report (74)
- video (60)
- Lecture (46)
- Other (45)
- Review (27)
Keywords
- Robotik (30)
- Flugkörper (21)
- UAV (21)
- Journalismus (15)
- Bionik (11)
- Rettungsrobotik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Juristenausbildung (7)
Institute
- Wirtschaftsrecht (834)
- Institut für Internetsicherheit (262)
- Wirtschaft und Informationstechnik Bocholt (254)
- Informatik und Kommunikation (220)
- Institut für Innovationsforschung und -management (194)
- Westfälisches Institut für Gesundheit (141)
- Westfälisches Energieinstitut (86)
- Wirtschaft Gelsenkirchen (65)
- Maschinenbau Bocholt (60)
- Elektrotechnik und angewandte Naturwissenschaften (59)
Bachelor/Master-Studiengänge
(1999)
Stereotactic frame systems are widely used in neurosurgery. The accuracy of frame devices is considered as a gold standard to which the accuracy of new frameless stereotactic navigation systems is compared. The purpose of this study is to develop a general approach for the prediction of the application accuracy of stereotactic systems. The approach will be applied to the frame‐based biopsy performed with three frame devices: Leksell G, Cosman–Roberts–Wells (CRW), and Brown–Roberts–Wells (BRW). A work‐flow analysis will be carried out demonstrating that the accuracy relevant for a clinical application comprises several error sources including imaging, target and entry point selection, image to frame coordinates registration, and the setting of mechanical parameters of the frame. These error sources will be postulated to obey a Gaussian distribution probability density. The linear, i.e., Gaussian, error propagation, will be used to link all error contributions thus to calculate the cumulative accuracy of the frame used in the application. Although the Gaussian approach is an approximation, it allows for an analytical treatment of the accuracy. Both the accuracy at the target point and the accuracy of the probe needle guidance along the planned trajectory have been investigated. Of great significance is the relationship found between accuracy, pixel dimension, and image slice thickness, the latter being the dominant factor for slices of more than 1.5 mm thickness, yielding inaccuracies larger than 1.5 mm. For target points the predictions for the application accuracy have been compared to the results of measurements, showing good agreement with the experimental data.
A qualitative work‐flow analysis of a neurosurgical procedure indicates that the resolution of the image used to plan the intervention is the major source of inaccuracy. Quantitative experimental measurements confirm this observation. They fail, however, to explain the relationship between the accuracy of the frame components involved in a stereotactic procedure and the overall application accuracy. This investigation shows that the novel Gaussian approach is a flexible framework for the calculation of the application accuracy of frame systems. Therefore, the Gaussian approach provides a detailed understanding of the interplay between the various factors affecting accuracy. The basic ideas and limitations of the Gaussian approach are briefly explained. The effect of fiducial marker distribution and registration is investigated and shown to introduce a spatial dependence to the accuracy. The results of the Gaussian approach are compared with experimental data for three stereotactic frame devices: Leksell G, Cosman–Roberts–Wells, and Brown–Roberts–Wells. Although the Gaussian approach is an approximation, it reproduces the accuracy measured in the experiment within the statistical error of that experiment. Comp Aid Surg 4:77–86 (1999). © 1999 Wiley‐Liss, Inc.
Ein Physikbuch, entstanden aus Vorlesungen für Studierende der Elektrotechnik. Eine komprimierte, knappe Darstellung erleichtert den Überblick und lässt Raum für handschriftliche Ergänzungen der Studierenden während der Vorlesungen. Dabei konzentriert sich der Stoff auf die Gebiete und Vertiefungen die für das Studium einer technischen Disziplin als unverzichtbare Voraussetzung anzusehen sind.
Segmentation of radio-angiographic images using morphological filters, thinning and region growing
(1997)
Bestimmung der Festigkeit von pastösen Abfällen. Plädoyer für eine Novellierung der TA Abfall
(1996)
Integration von Bildverarbeitungs- und CAD/CAM-Modulen für die Adaption von Hüftendoprothesen
(1996)
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Optimierungspotential Lack
(1995)
Zur Wirtschaftlichkeit aktueller Technik-gestützter Geschäftsprozesse - Ein Branchenvergleich
(1995)
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Der Studiengangsführer des neu gegründeten Fachbereichs Ingenieurinformatik an der FH Gelsenkirchen beschreibt den deutschlandweit einmaligen Diplom-Studiengang Mikroinformatik mit seinen zwei Ausprägungen ‚Technische- und Angewandte Mikroinformatik‘: Die Aufgabenbereiche, das Praxissemester, die Einschreibungsvoraussetzungen, die Berufsfelder, den Studienverlauf und die Fächerinhalte.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Dieses Buch ist hervorgegangen aus der Schrift "Hannemann, Datensammlung Mikrocomputer", welche 1985 in ihrer ersten Auflage erschienen ist und im Wesentlichen als zusammenfassende Unterlage für die Arbeit an den Mikrocomputern im Fachbereich Elektrotechnik der Fachhochschule Bochum, Abteilung Gelsenkirchen diente. Da sich die genannte Schrift in der täglichen Arbeit am Computer sehr bewährt hat, wurde sie erweitert und durch die Hinzunahme eines Coautors auch auf die höheren Programmiersprachen PASCAL und C, sowie das Betriebssystem CP/M ausgedehnt. Die Programmiersprachen spielen im Bereich der Mikrocomputer bzw. der Personal Computer eine sehr wichtige Rolle. Beide Autoren sind Professoren an der neuen Fachhochschule Gelsenkirchen, Fachbereich Ingenieurinformatik und dort für die Fächer Angewandte Informatik (Prof. Dr. A. Niemietz) und Mikrocomputertechnik (Prof. Dr. D. Hannemann) verantwortlich. Prof. Hannemann ist Gründungsdekan des Fachbereichs Ingenieurinformatik und Initiator des Studiengangs Mikroinformatik.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.
Analysis of future development opportunities for OIS (Office Information Systems) methods and tools.
(1992)
Arbeitsmarktuntersuchung zur Berufsrückkehr von Frauen im Land Bremen - Eine Potentialabschätzung
(1989)
An EJB container can host three types of beans: Session beans to model business processes, entity beans to represent business objects and message-driven beans to provide for asynchronous method calls. This paper addresses entity beans and their mapping to persistent storage, especially relational and object-relational databases. A tool named BeanMaker is presented which can do object mapping either automatically by metadata analysis of a database schema or manually based on intrinsic real world semantics supplied by the user. BeanMaker is a running prototype system with an intuitive GUI interface. This paper looks what's behind the scenes and focuses on design issues and concepts of code generation.
Die vorliegende Arbeit basiert auf aktualisierten Auszügen einer Diplomarbeit, die vom Autor im Sommersemester 2003 dem Fachbereich Wirtschaft der Fachhochschule Gelsenkirchen vorgelegt wurde. Da die inhaltichen Schwerpunkte der Kapitel 2 und 3 auf der Darstellung rundfunktechnischer Prozesse und Infrastruktur liegen, ist auf Anraten des Herausgebers ein erläuterndes Kapitel vorangestellt worden, mit dem eine Einordnung des Themenkomplexes Content Management in den rundfunkökonomischen Kontext erfolgt. Hierfür wurde auf ein Abstract zurückgegriffen, das den Verlauf der zugrundeliegenden Diplomarbeit nachzeichnet und damit sukzessive eine Begründung für die Behandlung dieses Themas im Rahmen einer speziellen Betriebswirtschaftslehre des Rundfunkbetriebs respektive der Rundfunkökonomie liefert. Da die Arbeit anhand eines konkreten betriebswirtschaftlichen Problems entwickelt wurde beziehen sich - vor allem im Kapitel 3 - viele Ergebnisse auf Interviews. Diese sind - soweit erforderlich - in den Fussnoten wortwörtlich wiedergegeben. Es wurde hier jedoch auf die Beifügung der kompletten Abschriften verzichtet. Die Interviews sind anonymisiert. Fragen und Anregungen können gerne an den Autor unter folgender E-Mail-Adresse gerichtet werden: martin.gomolka@tonline.de
Das Gesetz zur Modernisierung des GmbH-Rechts und zur Bekämpfung von Missbräuchen (MoMiG) hatte weitreichende Konsequenzen für die Kapitalaufbringung und -erhaltung in der GmbH. Die Modifizierung der Kapitalerhaltungsregeln hat insbesondere enorme Auswirkungen auf , vor allem das verbreitete Cash Pooling. Es wird dargestellt werden, welche Veränderungen diesbezüglich aus dem MoMiG resultieren.
§ 8c Abs. 1 S. 1 bis 4 KStG regelt den Verlustuntergang bei einem schädlichen Beteiligungserwerb. Ein danach schädlicher Beteiligungserwerb führt jedoch unter bestimmten Voraussetzungen in Ausnahmefällen nicht zur Beschränkung des Verlustabzugs (Verschonung der Verluste in Höhe der stillen Reserven nach § 8c Abs. 1 S. 6-8 KStG b). Ziel der Arbeit ist es, die Frage zu beantworten, welche stillen Reserven, insbesondere bei der indirekten Übertragung von Anteilen an Organgesellschaften, für Zwecke der Verschonungsregelung zu berücksichtigen sind.
Die Mitbestimmung der Arbeitnehmer, etwa in Betriebsräten oder anderen Gremien, entwickelt sich seit dem Ende des zweiten Weltkrieges im nationalen und europäischen Arbeitsrecht stetig fort. Hinzu kommt, dass in Gesetzen, die einen anderen Sachverhalt betreffen, immer häufiger auch Beteiligungsrechte oder Arbeitnehmervertretungen vorgesehen sind (z. B. im Arbeitssicherheitsgesetz). Der Aufsatz gibt einen Überblick über die Vorschriften, die Beteiligungsrechte in der Bundesrepublik Deutschland beinhalten.