Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
Seit ihren Anfängen haben Rechenzentren einen steten Wandel, verbunden mit ständig neuen Anforderungen, zunehmender Vielfalt und einem rasanten Anwachsen des Aufgabenvolumens erfahren. Diese fließende Entwicklung erklärt sich zum einen aus der enormen Steigerung der Leistungsfähigkeit elektronischer Rechenanlagen seit Mitte des 20. Jahrhunderts und der ebenso beeindruckenden Leistungssteigerung der technischen Kommunikationssysteme, die zur Vernetzung längst unverzichtbar sind, und wird zum anderen durch die ständig wachsende und inzwischen nahezu allumfassende und allgegenwärtige Bedeutung der Informationsverarbeitung in Forschung, Lehre und Administration bestimmt. Wenn sich die Datenverarbeitung hin zur Informationsverarbeitung bis heute auch deutlich verändert hat, so haben Rechenzentren als die zentrale Universitätseinrichtung doch zu jeder Zeit neben dem Betrieb von Rechner- und Kommunikationssystemen stets innovative Dienstleistungen zur Förderung und Unterstützung von Forschung und Lehre erbracht. Im Bericht versuchen wir, Entwicklungen in anderen Universitäten zu berücksichtigen, können aber die „lokale Brille“ nicht immer ablegen. Dafür hoffen wir auf Verständnis.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
Knappe Finanzmittel veranlassen Universitäten und Fachhochschulen, die Effizienz ihrer IT-Versorgung kritisch zu hinterfragen. Dabei wird leicht übersehen, in welchem Umfang die IT-Betreuung Kapazitäten des wissenschaftlichen Personals bindet. HIS hat ein Planungsverfahren zur Quantifizierung des hochschulweiten Bedarfs an IT-Personal in Abhängigkeit alternativer Versorgungsstrukturen erarbeitet, das auch den Personaleinsatz außerhalb des Rechenzentrums und der offiziellen IT-Stellen erfasst. Dieser Ansatz wird im Folgenden am Beispiel einer idealtypischen Modellhochschule vorgestellt.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
ABSTRACT Recent years have seen a rapid increase in the need for highperformance computing. These demands come from disciplines such as particle physics traditionally relying on High Performance Computing (HPC) but lately also from the various branches of life science that have matured into quantitative disciplines. The classical infrastructure of university computer centres results to be unsuited to cope with the new requirements for a multitude of reasons. Here we discuss the causes of this failure and present a solution developed at the University of Freiburg in a collaborative effort of several faculties. We demonstrate that using state of the art grid computing technology the problem can now be addressed in a bottom-up approach. The organizational, technical, and financial components of our framework, the Black Forest Grid Initiative (BFG) are described and results of its implementation are presented. In the process, a number of new questions have emerged which the next phase of our project needs to address.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
ABSTRACT Grid computing is a computer infrastructure with the focus on large-scale resourcesharing among so-called Virtual Organizations (VO). The aim of research focus in this field is to cope with all technological problems that might occur in order to provide a secure, uniform and transparent access to resources being connected by a network. The purpose of this paper is to describe a method that provides secure access to computer resources which are in idle state inside the network of an organization. Our approach is based on connected homogeneous Linux-based virtual machines being able to virtualize the heterogeneous resources that are available.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
ZUSAMMENFASSUNG Komponentenbasierte Softwarearchitekturen gelten dank loser Kopplung und später Bindung als skalierbar, leichter zu warten und flexibler gegenüber Änderungen von Anforderungen als monolithische Systeme. Um Fehler in derartigen Softwaresystemen zu beheben, neue Funktionen bereit zu stellen oder Produktvarianten zu bilden, bedarf es lediglich dem Austausch einer oder mehrerer Komponenten. Das Einspielen von Updates in ein Softwaresystem birgt allerdings grundsätzlich das Risiko, bestehende Abhängigkeiten zu zerstören und dadurch die Verfügbarkeit des Systems negativ zu beeinflussen. Um einen Überblick über die zu erwartende Wahrscheinlichkeit eines Softwareupdates bei der Verwendung kommerzieller Softwarekomponenten zu bekommen, wurde die Marktentwicklung der beiden größten Online-Marktplätze für kommerzielle Softwarekomponenten und ein Martplatz für Open-Source Komponenten im Bezug auf Update-Zyklen, Versionierung und Komponentenarchitekturen über einen Zeitraum von 332 Tagen aufgezeichnet. Bei der folgenden Untersuchung der dadurch gewonnenen statistischen Daten konnte gezeigt werden, dass es sich auf der einen Seite bei Komponentenupdates keineswegs um seltene Ereignisse handelt und dann über einen längeren Zeitraum betrachtet, zu den meisten Komponenten eine Vielzahl von Versionen verfügbar sind.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
Im Laufe eines Studiums hat ein Studierender mit den verschiedensten Stellen, Ämtern, Einrichtungen, kurz: Dienstleistern, im Rahmen von Beratung, „Finanziellem“, An-, Um- oder Abmeldung, Anerkennung, Im- oder Exmatrikulation zu tun. Der Fokus dieses Beitrags möchte den Blick auf die von Hochschuleinrichtungen und von hochschulnahen Institutionen erbrachten Dienstleistungen lenken. Dabei soll vor allem das Informations- und Transaktionsmanagement der Hochschulen in Bezug auf die Studierenden näher betrachtet werden. Die jüngsten Veröffentlichungen sowohl in der Presse als auch in wissenschaftlichen Zeitschriften geben Anlass, sich stärker diesem Thema zuzuwenden.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
Die Diskussionen zur angemessenen Ausgestaltung der IT-Organisation werden seit fast 30 Jahren mit großer Leidenschaft geführt. Der rasche technologische Fortschritt und immer neue Anwendungsfelder heizen die Gespräche zwischen Nutzern, Herstellern und Management an, lassen aber leider immer nur kleine Etappenergebnisse zu. Viele Normierungsgremien, wie die International Organization for Standardization oder das britische Office of Government Commerce, haben technische und fachliche Standards erarbeitet und verabschiedet. Dennoch ergibt sich eine Lücke zwischen den de-jure und den de-facto Standards. Verbreitet und zum Einsatz kommen heute die Best Practices von den IT-Abteilungen. Eine Strukturierung dieser Erfahrungen und die Formulierung der wichtigsten Prozesse erfolgt durch Referenzmodelle. Gepaart mit dem richtigen Umsetzungswissen sowie dem Zugang zu aktuellen Technologien bieten die Modelle den wirtschaftlichsten Ansatz, IT-Leistungen der betrieblichen Organisation zur Verfügung zu stellen.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
ZUSAMMENFASSUNG Insbesondere in der Praxis eingebetteter Systeme haben sich rekonfigurierbare Plattformen schon vor vielen Jahren durchgesetzt: nicht nur als beim Anwender programmierbare Akzeleratoren, sondern neuerdings auch zur Verminderung des Stromverbrauchs. Bei Supercomputing oder „high performance computing“ (HPC) und den entsprechenden Anwendungsgebieten wurden diese hochgradig potenten Möglichkeiten jedoch weitgehend ignoriert. Seit etwa zwei Jahren ist aber auch hier ein anfänglich noch zögerlicher Strategie-Wechsel zum Doppel-Paradigma zu beobachten, nämlich durch Eingliederung programmierbarer Akzeleratoren in das Grundmodell der System-Architekturen – die Kress/Kung-Anti-Maschine als Gegenstück zum von-Neumann-Paradigma. Diese Dualität der Maschinenparadigmen ist geeignet, das Lehrgebäude der Informatik und ihrer Anwendungen in seinen Fundamenten zu erschüttern. Das hier vorliegende Papier gibt einen kurzen Überblick, der in etwa auch für Newcomer lesbar sein soll, und veranschaulicht die Grundlagen dieser neuen Entwicklung.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Abstract
ABSTRACT Die Programmiersprache Java hat sich in den letzten Jahren als ein leistungsfähiges Werkzeug für WWW-orientierte Anwendungen durchgesetzt. Mit den EJB's und dem J2EE-Standard bemüht man sich, einen objektorientierten Ansatz auch für die Business Logic einzusetzen. Von dem Ziel, existierende Business Logic (Geschäftslogik) durch neue EJB-Implementierungen zu ersetzen, sind wir jedoch noch weit entfernt. Dies gilt besonders für die größeren Unternehmen, die in der Regel z/ OS mit IMS, CICS, VSAM, DB2, Oracle und Adabas auf ihrem zentralen Server einsetzen.
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007
Unable to retrieve citations for this document
Retrieving citations for document...
Requires Authentication
Unlicensed
Licensed
December 14, 2007