Skip to content
Publicly Available Published by De Gruyter Saur April 24, 2021

Informationen

Digitale Kompetenz und Fähigkeiten

In der Informationsgesellschaft hat das Konzept der Alphabetisierung, das seit jeher mit Bildung verbunden ist und die Einheit der drei wichtigsten Kompetenzen (Lesen, Schreiben und Rechnen) annimmt, seine Grenzen erheblich erweitert. Die Konzepte „Computerkompetenz“, „Informationskompetenz“, „Medienkompetenz“, „IKT-Kompetenz“ werden im Rahmen des Bildungssystems aktiv weiterentwickelt. In letzter Zeit wird das Konzept der „digitalen Kompetenz“ immer beliebter. Darin versuchen die Forscher einerseits, alle Arten von Alphabetisierung zu kombinieren, die mit dem Einsatz von Infokommunikationstechnologien verbunden sind, andererseits, die Arten von Kompetenzen hervorzuheben, die in der modernen Welt aufgrund der hohen Durchdringung mit Internetanwendungen erforderlich sind.

Der Begriff „digitale Kompetenz“ bezeichnet die Fähigkeit, Informationen, die mit einem Computer in verschiedenen Formaten aus einer Vielzahl von Quellen gewonnen wurden, kritisch zu verstehen und zu nutzen. Es ist klar, dass dieser Begriff im Zusammenhang mit der Digitalisierung der Realität und der raschen Verbreitung des Internets entstanden und gefragt ist. Als digitale Kompetenz kann man auch Bewusstsein, die Einstellungen und die Fähigkeit von Personen verstehen, digitale Werkzeuge und Mittel angemessen zu nutzen, um digitale Ressourcen zu identifizieren, darauf zuzugreifen, zu verwalten, zu integrieren, zu bewerten, zu analysieren und zu synthetisieren, um neues Wissen aufzubauen.

Wenn wir heute sehen, wie Dreijährige mit iPads umgehen können, muss man die Frage, was zuerst kommt – digitale oder akademische Kompetenz – nicht mehr beantworten. Es wird immer offensichtlicher, dass Lehrer mit digitaler Kompetenz eine Voraussetzung für die Schaffung einer neuen Schule sind und diese Kompetenzen geschickt nutzen, um sowohl akademische als auch digitale Kompetenz bei ihren Schülern zu entwickeln.

Was versteht man aber unter dem Begriff „Digitale Kompetenz“? Die Analyse der bestehenden Definitionen zeigt, dass das ein sich aktiv entwickelndes Konzept ist, das im Einklang mit der Verbesserung der Infokommunikationstechnologien ständig geändert wird. Die meisten Autoren beziehen in das Konzept der digitalen Kompetenz die Fähigkeiten ein, digitale Technologien im Alltag effektiv einzusetzen, Fähigkeiten zur Bewertung kritischer Technologien und die Motivation zur Teilnahme in der digitalen Kultur sowie technische Fähigkeiten, die am häufigsten mit Computerkenntnissen verbunden sind.

Das Konzept der digitalen Kompetenz wird in den Konzepten der digitalen Kultur und der digitalen Bürgerschaft weiterentwickelt. Die digitale Kultur ist heute ein Teil der Alltagskultur der Bürger der Informationsgesellschaft und muss auch durch Gesetze und ethische Verhaltensregeln sowie Sicherheitsregeln geregelt werden, die von den Bürgern dieser Gesellschaft gemeinsam geschaffen wurden. Aufgrund der rasanten Entwicklung der Infokommunikationstechnologien bleibt die Reflexion der sich verändernden Welt jedoch hinter den Errungenschaften des wissenschaftlichen und technologischen Fortschritts zurück. Die Normen und Werte, die in einer neuen Kultur zu Regulatoren des menschlichen Verhaltens werden sollten, sind oft unzureichend entwickelt. Bis vor kurzem haben die Wissenschaftler die virtuelle Realität untersucht. Heute ändert sich die Sichtweise zu diesem Thema radikal. Realität und Virtualität werden nicht mehr entgegengesetzt. Es ist eine digitale Welt entstanden, die das menschliche Leben und Handeln verändert.

Quelle: https://play-experience.com/digitale-kompetenz-und-faehigkeiten/, Yasmine Moreau, 25. Januar 2021

Urheberrecht im digitalen Binnenmarkt

Das Bundeskabinett hat am 3. Februar 2021 den von der Bundesministerin der Justiz und für Verbraucherschutz vorgelegten Entwurf eines Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts beschlossen.

Der Schwerpunkt des Entwurfs ist das neue Urheberrechts-Diensteanbieter-Gesetz, das die urheberrechtliche Verantwortlichkeit von Upload-Plattformen wie YouTube oder Facebook regelt. Der Entwurf strebt einen fairen Interessenausgleich an, von dem Kreative, Rechteverwerter und Nutzer gleichermaßen profitieren sollen. Kreative und Verwerter sollen fair an den Gewinnen der Plattformen beteiligt werden. Künstlerinnen und Künstler bekommen hierzu unmittelbare Zahlungsansprüche gegen die Plattformen. Gleichzeitig sollen die Kommunikations- und Meinungsfreiheit der Nutzerinnen und Nutzer im Internet gewahrt und vor „Overblocking“ geschützt werden.“

Der Gesetzentwurf ändert das geltende deutsche Urheberrecht an zahlreichen Stellen. Folgende Regelungen sind besonders hervorzuheben:

  1. Ein eigenständiges neues Gesetz regelt die urheberrechtliche Verantwortlichkeit von Upload-Plattformen. Es enthält außerdem Vorschriften zu Nutzerrechten und zu Vergütungsansprüchen der Kreativen für Nutzungen auf Plattformen (Urheberrechts-Diensteanbieter-Gesetz [UrhDaG-E], Artikel 3 des Entwurfs).

  2. Der Entwurf sieht die Einführung eines Presseverleger-Leistungsschutzrechtes vor. Das neue Presse-Leistungsschutzrecht schützt die wirtschaftlich-organisatorische und technische Leistung der Presseverleger bei der Erstellung von Presseveröffentlichungen (§§ 87 f bis 87 k UrhG-E).

  3. Die bereits bestehenden Vorschriften des Urhebervertragsrechts, also die Regeln für Verträge zwischen Kreativen und Verwertern, werden angepasst (§§ 32 ff. UrhG-E) und der kollektive Rechtsschutz gestärkt (§ 36 d UrhG-E). Die europäischen Vorgaben beruhen weithin auf bereits geltendem deutschen Urhebervertragsrecht.

  4. Der Entwurf enthält Regelungen zu gesetzlichen Nutzungserlaubnissen für das Text und Data Mining, einer Schlüsseltechnologie für maschinelles Lernen und Künstliche Intelligenz (§§ 44 b, 60 d UrhG-E). Darüber hinaus beinhaltet der Entwurf Regelungen für den digitalen und grenzüberschreitenden Unterricht und die Lehre sowie für die Erhaltung des Kulturerbes (§§ 60 e, 60 f UrhG-E).

  5. Im Interesse der Nutzerinnen und Nutzer ist die Nutzung urheberrechtlich geschützter Werke zu den Zwecken der Karikatur, der Parodie und des Pastiches erlaubt (§ 51 a UrhG-E). Der Entwurf reagiert damit auch auf das Urteil des Europäischen Gerichtshofs im Verfahren „Metall auf Metall“, das Sampling zum Thema hatte.

  6. Künftig können Verwertungsgesellschaften kollektive Lizenzen mit erweiterter Wirkung vergeben. Dies ist ein neues Element im deutschen Urheberrecht (Extended Collective Licences, ECL, siehe § 51 VGG-E). Die Sondervorschriften für die Online-Nutzung von vergriffenen Werken, insbesondere von nicht mehr erhältlichen Büchern, werden reformiert (§ 51 b VGG-E).

  7. Auch die Verlegerbeteiligung wird neu geordnet: Verleger werden künftig wieder an der Vergütung für gesetzlich erlaubte Nutzungen (z. B. Privatkopie) beteiligt (§ 63 a UrhG-E, §§ 27 bis 27 b VGG-E). Dies gewährleistet insbesondere den Fortbestand der VG Wort als gemeinsamer Verwertungsgesellschaft von Autoren und Verlegern.

  8. Vervielfältigungen eines gemeinfreien visuellen Werks, z. B. Fotos alter Gemälde, genießen künftig keinen Leistungsschutz mehr. Dadurch wird den Zugang zum Kulturerbe verbessert (§ 68 UrhG-E).

  9. Neue Bestimmungen regeln die Online-Verbreitung von Fernseh- und Radioprogrammen, z. B. per Livestream und über Mediatheken (§§ 20 b bis 20 d, 87 UrhG-E).

Der Gesetzentwurf der Bundesregierung wurde dem Bundesrat zur Stellungnahme zugeleitet und nach einer Gegenäußerung der Bundesregierung an den Deutschen Bundestag weitergeleitet und dort beraten. Die Richtlinien sind bis zum 7. Juni 2021 in deutsches Recht umzusetzen. Ein FAQ-Dokument zum Regierungsentwurf zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts finden sich auf der Website des BMJV.

Anhörung zur Datenstrategie der Bundesregierung

Der Ausschuss Digitale Agenda hat sich Anfang Februar 2021 in einer öffentlichen Anhörung mit der Datenstrategie der Bundesregierung (Drucksachen 19/26450; 19/16075) sowie einem Antrag der FDP-Fraktion zur Datenpolitik (Drucksache 19/26538) befasst. Viel Lob gab es von den sieben Sachverständigen für die Grundrichtung der Strategie, aber auch Detailkritik, vor allem an den konkreten Maßnahmen.

Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber (SPD), sagte, die Vorlage schaffe Orientierungspunkte für Bürger. Positiv sei das Bekenntnis zu Datenschutz und Selbstbestimmung, andererseits kämen beide Punkte im Maßnahmenkatalog zu kurz. Der Verweis auf das „Unberührtbleiben“ der Datenschutz-Grundverordnung (DSGVO) angesichts der Dimension der geplanten Handelbarkeit von Daten erscheine ihm nicht zutreffend, denn die Veränderung erschließe sich erst aus der Zusammenschau mit dem Gesamtpaket an Maßnahmen auf europäischer Ebene, sagte Kelber. Er verwies darauf, dass der gesetzliche regulatorische Rahmen, auch für die vorliegende Datenstrategie, im Wesentlichen aus Brüssel komme.

Die Sachverständige Louisa Specht-Riemenschneider (Rheinische Friedrich-Wilhelms-Universität Bonn) sagte, dass es wichtige Problemidentifikationen gegeben habe. Es mangele jedoch an einer Problemlösungsstrategie. Sie betonte, Datenzugangsansprüche sollten nicht horizontal, sondern grundsätzlich sektorspezifisch und auf Grundlage des tatsächlichen Bedarfs vorgesehen werden. Daneben brauche die Wissenschaft zweckgebunden intersektorale Datenzugangsansprüche. Datentreuhandlösungen könnten eine wesentliche Rolle etwa für das Trainieren Künstlicher Intelligenzen mit geteilten Daten oder bei der Anonymisierung und Pseudonymisierung von Datenbeständen einnehmen.

Ausdrückliches Lob für die Strategie kam von Dirk Heckmann (TUM School of Governance München). Zu den Stärken zähle die Ausgewogenheit der strategischen Ziele. Er lobte auch, dass der dringende Forschungsbedarf erkannt wurde. Die Strategie erkenne zudem „auf allen Ebenen“ die Herausforderungen für Sachdaten. So sei die Nutzung personenbezogener Daten zu gemeinwohlorientierten Zwecken wie etwa der Forschung oder der Pandemiebekämpfung nicht ausgeschlossen, wenn Datenschutz durch Technikgestaltung gegeben sei.

Auch Aline Blankertz von der Stiftung Neue Verantwortung begrüßte die Strategie, bemängelte aber, dass es sich nicht um eine Strategie handele, die einen Rahmen setze: „Sie listet 234 Maßnahmen auf, von denen 62 Prozent bereits laufen“, sagte Blankertz. Besonders ausgeprägt sei dies in den ersten drei Themenbereichen der Strategie. Für die Zielsetzung einer Dateninfrastruktur bedürfe es jedoch messbarer Ziele. Zur Durchsetzung von Verbraucherinteressen brauche man Werkzeuge. Dies betreffe etwa Datentreuhandmodelle, die noch stärker gefördert werden sollten. Sie begrüßte zudem das Nutzbarmachen von Daten – ohne vertrauliche Elemente preiszugeben – als wichtigen Forschungsbereich.

Frederick Richter von der Stiftung Datenschutz betonte, dass Datennutzung auch Datenverantwortung sei. Vordringlichstes Ziel müsse Klarheit im Bereich der Anonymisierung sein. Er befürwortete, dass die Datenkompetenz weiter ausgebaut werden soll. Dies sei die Grundlage für einen bewussten Umgang durch wirtschaftliche Akteure, aber auch Nutzer. Er begrüße außerdem, dass sich die Bundesregierung gegen die Schaffung eines „Dateneigentums“ ausgesprochen habe. Ein solches Verfügungsrecht an Daten sei nicht kompatibel mit dem europäischen Datenschutzregime. Mit Blick auf die angestrebte neuen Datennutzungskultur sagte Richter: „Aus meiner Sicht ist dies eine Verbindung aus der Datenschutzkultur, die wir schon lange haben und einer Datennutzungskultur, die noch etwas angefeuert werden muss.“

Henriette Litta (Open Knowledge Foundation Deutschland) betonte, dass die Strategie wirtschaftliche Innovationskraft und Datenschutz nicht gegeneinanderstelle. Es gebe jedoch ein Ungleichgewicht zwischen Wirtschaft und Gemeinwohl; so würden wirtschaftliche Aspekte überbetont, der Umgang mit Daten aus nicht-wirtschaftlicher Sicht jedoch wenig beleuchtet. Um die digitale Souveränität zu stärken, sei eine nachhaltige Förderung von Open-Source-Infrastruktur erfordelich. Dem Open-Source-Ökosystem in Deutschland fehlten gezielt Investitionen, besonders im Bereich der offenen Basistechnologien, etwa bei Protokollen oder Code-Bibliotheken. Die Zivilgesellschaft müsse zudem als kompetenter Partner begriffen werden. Um den Staat wirklich zu einem Vorreiter zu machen, müsse das Informationsfreiheitsgesetzes zu einem Transparenzgesetz weiterentwickelt werden.

Den Blick auf Chancen und Risiken richtete Lina Ehrig (Verbraucherzentrale Bundesverband): „Moderne Formen der Datenverarbeitung können einen großen Gewinn darstellen und Lösungen für gesellschaftliche Probleme bieten“, sagte sie. Die Strategie suche daher nach Wegen, die Chancen der Digitalisierung durch die Förderung der Datennutzung zu realisieren und gleichzeitig die Schutzbedürftigkeit zu sichern. Bedauerlich sei, dass die aufgeführten Maßnahmen aus Verbrauchersicht „eher enttäuschend“ ausfielen. Es seien Vorhaben aufgeführt, die ohnehin praktisch umgesetzt werden müssten, viele Prüfaufträge angekündigt und unverbindliche Absichtserklärungen und Forschungsvorhaben genannt. Die Verbindlichkeit fehle. Nötig sei dies etwa bei verpflichtenden Regeln für Nachvollziehbarkeit-by-Design, damit Entscheidungskriterien und -logiken algorithmischer Systeme nachvollziehbar seien.

Quelle: Parlamentsnachrichten, www.bundestag.de/hib

Freie Ärzteschaft kritisiert digitale Plattform-Medizin

Die Freie Ärzteschaft e. V. (FÄ), ein Verein, der den Arztberuf als freien Beruf vertritt, hat sich kritisch zum Entwurf des Digitale-Versorgung-und-Pflege-Modernisierungs-Gesetzes (DVPMG) des Bundesgesundheitsministers geäußert. „Im Projekt Telematikinfrastruktur bahnt sich ein 180-Grad-Kurswechsel an: weg von der persönlichen Patientenbetreuung durch Ärzte und Psychotherapeuten hin zu einer lobbygesteuerten digitalen Plattform-Medizin“ sagte FÄ-Vizevorsitzende Dr. Silke Lüder. Nachdem die Arzt- und Psychotherapiepraxen jahrelang mit Fristen und Sanktionen zum Einbau teurer Konnektoren und Kartenlesegeräte gezwungen worden seien, solle die digitale Vernetzung nun webbasiert über Apps und Plattformen organisiert werden. „Alle sensiblen Krankheitsdaten“, betont Lüder, „werden dabei zentral gespeichert.“ Milliarden Versichertengelder seien bereits in der Telematikinfrastruktur versenkt worden – ohne erkennbaren Nutzen für Ärzte und Patienten. Neues Ziel sei jetzt das, was wir aus der Ökonomie kennen: Einzelne Digitalkonzerne wie die sogenannten GAFA-Unternehmen (Google, Apple, Facebook, Amazon) beherrschen den Markt. Angestrebt würden Telemedizin statt Arztbesuch, Videosprechstunde statt Praxisbesuch, digitale Gesundheitsanwendungen (DiGA) statt persönlicher Betreuung. „DiGA sind ein Geschäftsmodell. Obgleich kein Nutzen nachgewiesen sein muss, zahlen die gesetzlichen Krankenkassen beispielsweise für eine Adipositas-App für 90 Tage 500 Euro.“ Das sei mehr als ein gesetzlich Versicherter durchschnittlich für die gesamte ambulante Medizin inklusive aller Arzt-, Technik- und Laborleistungen im Jahr kostet.

Videokonsile etwa seien sinnvoll im australischen Outback, in der Antarktis, in der Coronakrise oder auch bei Beurteilung von Röntgenbildern in kleinen Kliniken ohne eigene Radiologen. Für die meisten Krankheitsfälle in Deutschland sei aber eine hochqualitative Versorgung im persönlichen Kontakt bisher Standard in Praxis und Klinik. Medizin beinhalte nicht nur das Gespräch, sondern auch nonverbale Kommunikation, die körperliche Untersuchung, Labor und Technikeinsatz vor Ort. Die Plattform-Medizin solle offenbar Haus- und Fachärzte sowie Psychotherapeuten immer mehr überflüssig machen. Die FÄ-Vizevorsitzende kritisiert, dass weder das Ministerium noch die gematik ernsthafte Datensicherheitskriterien veröffentlichen. „Die sensibelsten Daten, die es gibt, sollen von privaten Firmen gespeichert und weitergeleitet werden. Das Vertrauenskriterium „hoch“, das für diese Daten als einziges anzunehmen wäre, taucht in den Gesetzen nicht auf und wird in den Zugangsrichtlinien nicht konkretisiert.“ Solange das so sei, könne man keinem Arzt, keiner Ärztin und keinem Psychotherapeuten raten, TI-Anwendungen zu nutzen. Ziel der FÄ ist eine unabhängige Medizin, bei der Patient und Arzt im Mittelpunkt stehen und die ärztliche Schweigepflicht gewahrt bleibt (http://www.freie-aerzteschaft.de).

App schützt Fotos vor Gesichtserkennung

Informatiker der University of Maryland und der US Naval Academy (http://usna.edu) haben mit „LowKey“ (http://lowkey.umiacs.umd.edu) eine Web-App entwickelt, die helfen soll, die eigenen Fotos vor „unerlaubter Überwachung“ zu schützen. Dazu verändert ein Algorithmus die Bilder so, dass sie für Menschen zwar klar erkennbar bleiben, für gängige Gesichtserkennungs-Software aber kaum mehr zu identifizieren sind. Die Algorithmen von Amazon und Microsoft erreichen den Forschern zufolge weniger als ein Prozent Genauigkeit.

 
          Original (oben) und Verfälschung (Foto: Cherepanova et al.)

Original (oben) und Verfälschung (Foto: Cherepanova et al.)

Gesichtserkennung findet immer größere Verbreitung, ist aber auch als womöglich unzulässige Überwachung sehr umstritten. Dem Team hinter LowKey zufolge nutzen gängige Systeme große Datenbanken mit aus dem Internet heruntergeladenen Fotos, etwa von Social Media. Als Schutz vor Gesichtserkennung bauen sie nun per Algorithmus gezielt Störungen in Fotos ein, die mathematisch zwar relativ stark, aber fürs Auge kaum wahrnehmbar sind. LowKey ist das erste Umgehungs-Tool, das gegen kommerzielle Gesichtserkennungs-APIs wirksam ist, heißt es in einem auf dem Preprint-Server arXiv veröffentlichten Aufsatz.

In Tests war LowKey laut Forschern effektiv genug, dass Amazons „Recognition“, das unveränderte Bilder zu 93,7 Prozent korrekt einer bestimmten Person zuordnen kann, eine Genauigkeit von nur 0,6 Prozent erreichte. Selbst, wenn das System die 50 wahrscheinlichsten Treffer ausgibt, erreicht es nur 2,4 Prozent Trefferquote. Microsofts Azure Facial Recognition API schnitt noch schlechter ab, es konnte nur in 0,1 Prozent der Fälle eine exakte Zuordnung vornehmen. Die Informatiker betonen allerdings, dass geeignet gestaltete, robustere Geschichtserkennungs-Systeme wohl in der Lage wären, auch mit LowKey veränderte Fotos wieder richtig zu erkennen. Das Projekt und die Web-App sollen Nutzer also vor allem wachrütteln, was die Verbreitung von Gesichtserkennung und das allzu freizügige Teilen von Inhalten betrifft.

Zum Preprint „LowKey: Leveraging Adversarial Attacks to Protect Social Media Users from Facial Recognition“: http://arxiv.org/pdf/2101.07922.pdf

Social Media Trends 2021

Laut Statista lag 2020 die durchschnittliche Verweildauer auf Social Media in Deutschland bei 79 Minuten. Und auch die Vielfalt an Kanälen und Formaten war noch nie so groß. Doch auf welche Technologien oder Formate sollten sich Unternehmen im Jahr 2021 konzentrieren, um Kunden anzusprechen?

Social Media sind inzwischen fester Bestandteil des Online-Marketings und bieten Unternehmen neue Möglichkeiten, mit Kunden auf einer persönlicheren Ebene direkt in Kontakt zu treten. Um der meistgenutzte Social-Media-Kanal zu sein, erfinden Facebook, Instagram, Linked In und Co ständig neue Formate. Außerdem ändern sich Nutzerverhalten und die Bedürfnisse der Kunden regelmäßig. Deshalb ist es wichtig, dass Unternehmen überprüfen, ob sie die Formate für ihre Social-MediaStrategie nutzen können, um das Maximum herauszuholen.

Über 90 Prozent der Nutzer halten ihr Smartphone senkrecht, wenn sie sich in den Social Media tummeln. Damit sie nicht ständig ihr Handy drehen müssen, um Inhalte im Vollbildformat zu sehen, werden 2021 Videos in 9:16 Format nochmals wichtiger. Gerade für Kanäle wie Instagram und TikTok ist das essenziell. Unternehmen sollten bei den Videos zudem beachten, dass sie meist ohne Ton angesehen werden. Hier ist es wichtig, Untertitel einzubinden. Außerdem sollten Unternehmen in den Stories unbedingt eine Dialogmöglichkeit zulassen, denn die Interaktion mit den Kunden gewinnt zunehmend an Bedeutung.

Pokémon Go war ein Vorreiter von Augmented Reality (AR). Diese Funktion gewinnt 2021 immer mehr an Relevanz und wird zukünftig eine große Rolle spielen. Dabei lässt sich AR nicht nur im Gaming-Bereich einsetzen. Instagram nutzt zum Beispiel die Technologie in Form von Foto-Filtern. Mit AR-Content geben Unternehmen ihren Nutzern so eine neue Möglichkeit der Interaktion, wecken gleichzeitig Neugierde und es verleiht ihnen ein Alleinstellungsmerkmal. Je kreativer die Filter oder Videos, desto höher wird die Reichweite und die Teilbarkeit sein. Auch der Einzelhandel kann zukünftig zunehmend AR-Anwendungen nutzen, um das Einkaufserlebnis aufzuwerten.

Livestreams sind Echtzeitübertragungen, die in Form von Video und/oder Audio über Streaming-Plattformen bereitgestellt werden. 2021 wird sich zeigen, dass dieses Format nicht nur Influencern und Promis nutzt, sondern auch für Unternehmen ein wichtiger Bestandteil im Marketing wird. Unternehmen sollten ihren Kunden damit einen Einblick hinter die Kulissen gewähren, von Events berichten oder neue Produkte vorstellen. Gerade durch die Corona-Pandemie ist das Bedürfnis nach „sozialem Kontakt“ und der Bedarf nach aktuellen News enorm gestiegen. Speziell für Unternehmen, die den direkten Kontakt mit Kunden suchen, sind Livestreams ein großartiges Format. Schnellere Datenübertragung erlaubt es auch mit dem Smartphone Livestreams unterwegs zu verfolgen.

Chatbots simulieren eine Unterhaltung mit einem realen Ansprechpartner. Früher wurden sie hauptsächlich in Websites eingebunden, aber mittlerweile sind die Messenger-Bots auch in Social Networks nicht mehr wegzudenken. 2021 erfreuen sich Messaging-Anwendungen einer wachsenden Beliebtheit und bieten eine neue Form der Kundenkommunikation. So kann zum Beispiel das Verkaufs- oder Beratungsgespräch, das sonst im Laden vor Ort stattfand, künftig vermehrt durch den Dialog auf der Website ersetzt werden. Chatbots können zudem einfache Anfragen beantworten, und so den Kundenservice entlasten. Quelle: https://www.seo-kueche.de/

BMBF fördert Open Source Academic Publishing Suite (OS-APS)

Mit dem auf zwei Jahre angelegten Projekt „Open Source Academic Publishing Suite (OS-APS)“ sollen kleine und mittlere sowie Hochschulverlage im Bereich medienneutralen Publizierens und Openness fit gemacht und von Aufwänden z. B. zum Umformatieren bzw. zum XML-Setzen in hochpreisigen Redaktions- und Content-Management-System entlastet werden. Die OS-APS integriert perspektivisch Import-, Editier- und Exportfunktionen, um die bei Verlagen vorliegenden Autoren-Manuskripte (z. B. Word und OpenDocument) unformatiert einzulesen, zu analysieren, XML-Strukturen zu extrahieren und per Knopfdruck die gewünschten Exportformate, z. B. PDF, EPUB oder HTML, im Corporate Design des jeweiligen Verlags zu generieren. Verlage können für die satz- und formattechnische Gestaltung z. B. der PDF-Datei entweder aus bestehenden Satzvorlagen auswählen oder eine eigene Vorlage mithilfe eines Template Development Kits realisieren. Standardgemäß werden die E-Book-Formate Open Access, also Digital Rights Management (DRM)-frei und weltweit zugänglich, erstellt. Zudem sind Erweiterungen und Schnittstellen zu verlagsrelevanten Open-Source- und Open-Access-Anwendungen wie Open Journal Systems (OJS), Open Monograph Press (OMP) und Repositorien-Software wie DSpace eingeplant. Die OS-APS-Software wird Open Source zur Verfügung gestellt. Interessierte kleine und mittelgroße Verlage, Hochschulverlage, verlegerisch tätige Bibliotheken bzw. Forschende sowie Projekte und weitere Akteure im Bereich digitalen Publizieren und Open Science sind gerne eingeladen, beim Projekt am Ball zu bleiben oder sich im künftigen Anwenderbeirat einzubringen: https://os-aps.de/participate/. Fragen und Anregungen können gerne unter mail@os-aps.de an die Projektpartner Universitätsbibliothek Erlangen-Nürnberg mit ihrem Universitätsverlag FAU University Press, der Universitäts- und Landesbibliothek Sachsen-Anhalt (ULB) und der SciFlow GmbH gerichtet werden.

Mangel an Programmierkapazitäten

Die verspätete Auszahlung der Coronahilfen in Deutschland ist auf einen Mangel an Programmierkapazität zurückzuführen, um die notwendigen Onlineformulare zu erstellen, ließ das Bundeswirtschaftsministerium wissen. Die fehlenden Programmierer haben das Versprechen von Bundeswirtschaftsminister Peter Altmaier, die Hilfsgelder schnell und unbürokratisch auszuzahlen, zunichte gemacht. „Das ist ein tragisches Beispiel dafür, welche enormen Auswirkungen der Mangel an Softwareentwicklern heute schon hat“, sagt Edward Lenssen, CEO der niederländischen Beech IT, die auf die Programmierung hochkomplexer Softwaresysteme, Websites und Apps spezialisiert ist. Software wird in den 2020er Jahren zu einem kritischen Flaschenhals für Regierungen, Behörden und die Wirtschaft werden. Lenssen begründet seine Befürchtungen damit, dass die Programmierung von Computern nach heutigem Kenntnisstand kaum automatisierbar ist, und verdeutlicht den Aufwand zur Softwareprogrammierung anhand eines Rechenbeispiels: Üblicherweise rechnet man mit einer Produktivität von zehn bis 50 Codezeilen je Mitarbeiter und Tag. Ein Softwareentwicklungsprojekt mit einem Aufwand von 1.000 Personentagen, also in etwa fünf Personenjahre, produziert somit zwischen 10.000 und 50.000 Codezeilen. In einem Smartphone mit dem Betriebssystem Android werkeln rund 14 Millionen Programmzeilen. Die Diskrepanz zwischen dem notwendigen Aufwand einerseits und den stark wachsenden Programmgrößen andererseits verdeutlicht die immense Lücke bei der Softwareentwicklung. Das ohnehin drängende Problem wird dadurch verschärft, dass die Softwaresysteme immer komplexer werden. Schließlich ging es auch bei den Coronahilfen nicht nur um bloße Formulare, sondern vor allem auch um die Anbindung an die entsprechenden IT-Systeme zur weiteren Verarbeitung der eingegebenen Daten. Lenssen empfiehlt: „Behörden und Unternehmen sind gut beraten, sich heute schon Programmierkapazitäten langfristig zu sichern, um morgen nicht so hilflos zu sein wie heute der Bundeswirtschaftsminister.“

„Reclaim Your Face“

Der Europaabgeordnete Dr. Patrick Breyer (Piratenpartei) ruft zur Unterstützung der europaweiten Bürgerinitiative „Reclaim Your Face“ [www.reclaimyourface.eu] auf. Diese Bürgerinitiative setzt sich für ein Verbot von biometrischer Massenüberwachung an öffentlichen Plätzen innerhalb der Europäischen Union ein. Aktuelles Ziel der von über 35 Organisationen unterstützten Initiative ist es, in einem halben Jahr eine Million Unterschriften zu sammeln, um die Europäische Kommission offiziell zur Vorlage eines gesetzlichen Verbots biometrischer Massenüberwachung zu bewegen.

Die Identifizierung und Nachverfolgung von Personen anhand biometrischer Erkennungsmerkmale hebt Massenüberwachung im öffentlichen Raum auf ein neues Niveau, dessen dystopische Ausmaße sich heute nur erahnen lassen. Überwachungstechnologien, die auf der Auswertung individueller Körpermerkmale, wie Gesichtszügen oder Bewegungsmustern, basieren, verwandeln die Menschen in laufende Barcodes, die jederzeit und überall ausgelesen werden können, so die Meinung von Breyer. Auch erzeugt die automatisierte Erkennung und Meldung auffälligen Verhaltens einen ständigen Überwachungs- und Anpassungsdruck, der mit unseren Grundrechten nicht vereinbar ist. Menschenrechtsorganisationen warnen vor dem Einsatz biometrischer Überwachungstechnologien außerdem aufgrund der Diskriminierungsgefahr, die von ihnen ausgeht. Denn die Algorithmen der Gesichtserkennungstechnologien weisen besonders hohe Fehlerquoten bei der Erkennung nicht-weißer Personen auf. In der EU gibt es bisher keinen gesetzlichen Rahmen zur Regulierung solcher Überwachungsmethoden. Die EU-Kommission hat jedoch angekündigt, im April 2021 ein Gesetzespaket vorzulegen. „Reclaim Your Face“ fordert die Europäische Kommission auf, einen Gesetzesvorschlag zum Verbot Biometrischer Massenüberwachungstechnologien vorzulegen. Die Unterschriftensammlung läuft bis Ende Februar 2022.

RADAR4KIT – lokale Forschungs-datenmanagement-Lösung

Das Karlsruher Institut für Technologie (KIT) bietet seinen Wissenschaftlerinnen und Wissenschaftlern ein neues, zentrales Angebot für die Archivierung und Publikation von Forschungsdaten: „RADAR4KIT“. Grundlage ist die Repository-Lösung RADAR von FIZ Karlsruhe, die auf KIT-eigener Infrastruktur läuft. Auch andere Universitäten und außeruniversitäre Einrichtungen können ab sofort vergleichbare, lokal betriebene Servicelösungen von FIZ Karlsruhe beziehen.

Während andere Institutionen RADAR als externen Cloud-Dienst nutzen, um keine eigene technische Infrastruktur zur langfristigen Archivierung und Publikation von Forschungsdaten betreiben zu müssen, liegt dem KIT daran, für das universitäre Forschungsdaten-Repository ausschließlich eigene Server und Speicherdienste einzusetzen. In der Konsequenz übernimmt FIZ Karlsruhe den technischen Betrieb der RADAR-Software auf Systemen des KIT. Über Programmierschnittstellen kann das KIT RADAR4KIT nahtlos in die bereits existierende eigene FDM-Dienstelandschaft einbinden. RADAR4KIT ist eine lokale Installation, für die FIZ Karlsruhe RADAR an die speziellen Anforderungen der Exzellenzuniversität angepasst und funktional erweitert hat. Damit sind jetzt unter anderem die Datenpublikation mit eigenem DOI-Präfix, eine institutionelle Sicht auf die eigenen Forschungsdatensätze unter eigener Domain sowie Anpassungen an das Corporate Design der Einrichtung möglich. Neu entwickelte Funktionalitäten stehen grundsätzlich allen Kunden zur Verfügung, egal ob sie das von FIZ Karlsruhe betriebene („gehostete“) Angebot „RADAR Cloud“ nutzen oder sich für die Betriebsvariante einer lokalen Installation wie bei RADAR4KIT entscheiden. Mit den Neuerungen für RADAR4KIT wurde ein Angebot für Einrichtungen geschaffen, die bereits Speichersysteme vor Ort haben und ihre Forschungsdaten lokal verwalten möchten, ohne auf die Vorzüge von RADAR zu verzichten. Diese Institutionen profitieren davon, dass sie keine eigene Repository-Lösung entwickeln oder unterhalten müssen.

BMBF unterstützt Bürgerwissenschaft

„Das BMBF hat die Förderung im Bereich Citizen Science bereits seit 2013 konsequent ausgebaut. Mittlerweile finden sich Projekte der Bürgerforschung in allen Abteilungen des BMBF. Breitenwirksame Aktionen wie z. B. die Mobilisierungsaktion „Expedition Erdreich“ im Wissenschaftsjahr 2021 und das im Rahmen der EU-Ratspräsidentschaft durchgeführte Projekt „Plastic Pirates“ tragen zur wachsenden Aufmerksamkeit für bürgerwissenschaftliches Arbeiten bei. Citizen Science Projekte ermöglichen es, dezentral große Datenmengen zu gewinnen und auszuwerten. Das Wachstum der Bürgerwissenschaften macht es notwendig, Fragen der Datennutzung dieser Projekte zu adressieren. Das BMBF setzt sich dafür ein, die Kompetenzen bei allen Projektbeteiligten in Bezug auf den Umgang und die Nutzung von im Rahmen von bürgerwissenschaftlichen Projekten erhobenen Daten zu stärken. Hierzu wurde im Jahr 2020 die Erarbeitung eines Leitfadens zu rechtlichen Fragen in Citizen Science-Projekten gefördert (https://doi.naturkundemuseum.berlin/data/10.7479/c3y1-fw50). Der Leitfaden klärt wichtige Fragen zum Datenschutz und Urheberrecht und zeigt Wege und Lösungen im Umgang mit rechtlichen Fragen auf. Zudem trägt auch die BMBF-Projektförderung unmittelbar zum qualitätsvollen Umgang mit Daten in der Bürgerforschung bei. Bei dem Projekt „Expedition Erdreich“ z. B. werden deutschlandweit Bürgerinnen und Bürger aufgefordert, Daten zur Bodenqualität in Deutschland zu erheben und sie zusammen mit der Wissenschaft auszuwerten. Hier, wie auch in anderen Citizen Science-Projekten, fördert das BMBF zum einen auf Seiten der Bürgerinnen und Bürger das Verständnis für das wissenschaftliche Arbeiten und die Bedeutung qualitativ hochwertiger Datenerfassung und Datennutzung. Zum anderen stärkt es die Fähigkeit der Wissenschaft, Werkzeuge der Datenerhebung und Datenhaltung so zu strukturieren, dass sie für einen weiten Nutzerkreis zugänglich und verwertbar sind. Darüber hinaus waren bereits in der zweiten 2019 veröffentlichten Förderrichtlinie Bürgerforschung Angaben zum Umgang mit Daten (Erhebung von Daten, Datenqualität, Datensicherung und Speicherung von Daten, Zugänglichkeit von Daten, Zitation von Daten, etc.) verpflichtender Teil der einzureichenden Skizzen. Die öffentliche Kommunikation mit und über Wissenschaft hat gerade im Jahr 2020 noch einmal zugenommen. Wissenschaftskommunikation hat sich entsprechend als wichtige Aufgabe im deutschen Wissenschaftssystem etabliert und professionalisiert. Das BMBF begrüßt diese Entwicklung und hat seine Aktivitäten im Bereich der Wissenschaftskommunikation stark ausgebaut und unterstützt und betreibt Wissenschaftskommunikation mit dem Anspruch, die Gesellschaft in ihrer Breite zu erreichen.“

D21-Digital-Index: Deutschland so digital wie nie

Der D21-Digital-Index ermittelt jährlich den Digitalisierungsgrad der deutschen Gesellschaft. Für das Jahr 2020 liegt der Wert bei 60 von 100 Punkten, ein Anstieg um zwei Punkte zum Vorjahr. Dies bedeutet für die deutsche Gesellschaft ein mittleres Digitalisierungsniveau mit deutlichen Gewinnern unter den Jungen und gut Gebildeten. Die großangelegte Studie der Initiative D21, durchgeführt von Kantar und gefördert vom Bundesministerium für Wirtschaft und Energie, bildet die gesamte deutsche Wohnbevölkerung ab und errechnet den Index-Wert anhand von Fragen zum Digitalisierungs-Zugang, Nutzungsverhalten, digitaler Kompetenz und Offenheit gegenüber Digitalthemen.

Wenig überraschend zeigt das von Corona geprägte Jahr 2020 eine deutlich gestiegene Nutzung digitaler Anwendungen und Dienste – privat wie beruflich – besonders aber im Büroumfeld. Besonderen Zulauf konnten Streamingdienste (+12 %), digitale Lernangebote (+11 %) und Sprachassistenten (+11 %) verzeichnen. Der Anteil von Homeoffice verdoppelte sich zum Vorjahr auf 32 Prozent, im Büroumfeld sogar auf 59 Prozent.

Im Digitalisierungsgrad zeigen sich deutliche Unterschiede: Als Gewinner der Digitalisierung empfinden sich Junge und gut Gebildete: 79 Prozent der 20- bis 29-Jährigen, knapp die Hälfte der 60- bis 69-Jährigen, aber nicht mal ein Viertel der über 70-Jährigen profitieren nach eigenen Angaben von der Digitalisierung. Ähnlich absteigende Werte finden sich beim Thema Bildung und Berufstätigkeit: Während drei Viertel der höher Gebildeten gewinnen, sind es bei Menschen mit mittlerer Bildung etwa die Hälfte und bei formal niedrig Gebildeten nur noch ein Drittel. Unter den Berufstätigen glauben 66 Prozent, von der Digitalisierung zu profitieren (Bürotätigkeit: 78 %), von den Nichtberufstätigen sind es 41 Prozent.

Die Studie D21-Digital-Index untersucht zudem jährlich aktuelle Fragestellungen. Thematische Schwerpunkte waren diesmal digitale Gesundheitsanwendungen, digitales Arbeiten und digitaler (schulischer) Unterricht. Auch wenn die Akzeptanz für eine ärztliche Behandlung per Videosprechstunde gerade bei jüngeren und mittelalten Menschen auf 34 Prozent (+8 %) stieg, wird sie selten genutzt (5 %). Nur etwas mehr als die Hälfte vertraut dabei auf die Einhaltung der Datenschutzbestimmungen. Insgesamt wünscht sich ein Drittel der Bevölkerung eine stärkere Digitalisierung des Gesundheitswesens, wobei digitale Gesundheitsversorgung sowohl hinsichtlich der Chancen wie auch der Risiken kontrovers betrachtet wird.

Anders als im Privaten, sind die Bereiche Arbeit und Schule bisher noch weniger stark von der Digitalisierung durchdrungen und stehen damit vor noch größeren Veränderungen. In der Arbeitswelt zeigt sich fast eine Verdoppelung in der Nutzung von Homeoffice und mobilem Arbeiten. Besonders die Ausstattung mit Kollaborationstools oder Videokonferenztools nahm deutlich zu (+17 % auf 33 %, bzw. +15 % auf 26 %).

Der digitale Unterricht während der Schulschließung im ersten Lockdowns 2020 stellte zwei Drittel der Schüler, Eltern und Lehrkräfte vor konkrete Hürden. Häufigstes Problem war ganz besonders für Lehrkräfte die uneinheitlichen Vorgaben bzw. Vorgehensweisen. An zweiter Stelle stand die Selbstorganisation der Schüler, die sie selbst als größte Belastung empfanden, gefolgt von Schwierigkeiten mit der Verfügbarkeit von Unterrichtsmaterial.

Selten problematisch war dagegen die Infrastruktur: Nur 16 Prozent der Betroffenen verfügten nicht über genügend Geräte und nur 14 Prozent, darunter vor allem Lehrkräfte, beklagten eine zu schlechte Internetverbindung. Allerdings gab es in rund der Hälfte der Fälle nur eine digitale Übermittlung des Materials, die Lehrmittel und Bearbeitung blieben analog.

Auch wenn eine große Mehrheit (80 %) findet, dass digitaler Unterricht den Präsenzunterricht in Schulen nicht ersetzen kann, haben Schüler und Lehrkräfte Lust auf mehr Digitalisierung. Sie wünschen sich ein flexibleres und innovationsfreudigeres Bildungswesen: Knapp drei Viertel fordern, dass Schulen ergebnisoffen mit neuen Lernformen oder digitalen Arbeitsweisen experimentieren und Lehrkräfte verpflichtende Fortbildungen zum digitalen Lehren und Lernen erhalten. Letzterem stimmen Lehrkräfte selbst in besonders hohem Maße zu.

Die meisten Befragten (70 %) erwarten nach der Corona-Pandemie mehr digitale Anwendungen im Bildungsbereich. Sie gehen davon aus, dass mehr digitale Medien und Materialien im Unterricht eingesetzt (72 %) und Schulen besser mit digitaler Infrastruktur ausgestattet werden (70 %). Diesem digitalen Wandel im Bildungsbereich steht die Mehrheit positiv gegenüber (82 Prozent). Allerdings befürchten mehr 60 Prozent, dass die Corona-Pandemie Ungerechtigkeiten im Bildungswesen verschärft. Informationen: https://www.kantardeutschland.de/digitaler-unterricht-wahrend-corona-erfahrungen-von-lehrkraften-schulerinnen-und-eltern/

Quelle: Deutscher Bundestag – 19. Wahlperiode – 11 –Drucksache 19/26476, S. 11 bis 12

Online erschienen: 2021-04-24
Erschienen im Druck: 2021-04-26

© 2021 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 29.3.2024 from https://www.degruyter.com/document/doi/10.1515/iwp-2021-2153/html
Scroll to top button