{"id":1131,"date":"2015-11-17T10:44:44","date_gmt":"2015-11-17T10:44:44","guid":{"rendered":"https:\/\/www.zensations.at\/?p=1131"},"modified":"2023-08-09T00:35:43","modified_gmt":"2023-08-09T00:35:43","slug":"digitales-wellenreiten-auf-der-deaf-it","status":"publish","type":"post","link":"https:\/\/www.zensations.at\/blog\/digitales-wellenreiten-auf-der-deaf-it\/","title":{"rendered":"Digitales Wellenreiten auf der Deaf IT"},"content":{"rendered":"

Vom 14. – 15. November 2015 fand zum zweiten Mal die Deaf IT statt. Diesmal ging es in N\u00fcrnberg \u00fcber die B\u00fchne. Bevor ich hier auf meinen er\u00f6ffnenden Vortrag eingehe, gebe ich hier zun\u00e4chst erst einmal einen Einblick \u00fcber diesen Event und meine Eindr\u00fccke, die ich von dieser Veranstaltung mitgenommen habe.<\/p>\n

Deaf IT<\/h2>\n

Die Deaf IT ist der Versuch mit einer Konferenz und dem dazugeh\u00f6rigen Rahmenprogramm die Vernetzung sowie den Erfahrungsaustausch in der geb\u00e4rdensprachigen IT-Szene (Geh\u00f6rlose, Schwerh\u00f6rige und CI-Tr\u00e4ger) im deutschen Sprachraum voranzutreiben.<\/p>\n

Ich bin ohne irgendwelche Erwartungen mit drei Freunden nach N\u00fcrnberg erstmals zur Deaf IT gefahren und war neugierig, was dort auf mich zukommen wird. R\u00fcckblickend kann ich nur sagen, dass diese Veranstaltung einen besonderen Reiz hat und es f\u00fcr mich eigentlich ein gutes Beispiel f\u00fcr eine moderne Zielgruppenbetrachtung war, auf das ich schon hier in meinem letzten Artikel hinwies.<\/p>\n

\"Wellenreiter,<\/p>\n

Mehrsprachigkeit<\/h2>\n

Ich schrieb davon, dass man Zielgruppen nicht als statische und homogene Gruppe, sondern als reine Interessengruppe, trotz unterschiedlicher menschlicher und sozialer Natur, betrachten soll. Die Konferenzsprache war haupts\u00e4chlich die Geb\u00e4rdensprache, dennoch gab es auch schwerh\u00f6rige Personen, die ihre Talks in der Lautsprache abhielten. Um im Vergleich zur ersten Veranstaltung 2014 in M\u00fcnchen (nur Geb\u00e4rdensprache) allen den gleichen Zugang zu erm\u00f6glichen, gab es im Prinzip drei sprachliche Wahrnehmungskan\u00e4le, n\u00e4mlich die Geb\u00e4rden-, Schrift und Lautsprache, und das alles so gut wie m\u00f6glich simultan \u00fcbersetzt.<\/p>\n

Mehrwert durch die Themenvielfalt<\/h2>\n

Obwohl die Interessen sehr \u00e4hnlich gelagert sind, war die Themenvielfalt in der Breite doch ungewohnt. Diese Struktur ist insofern spannend, weil einerseits pro Ort vergleichsweise wenig Personen anzutreffen sind und sie jedoch geographisch weitmaschig vernetzt sind. Dazu kommen noch die fachlichen Unterschiede, welche dem Programm dann einen eigenen Reiz verlieh. Hier machte sich der Einfluss der sozialen und menschlichen Natur bemerkbar, die automatisch zu einer Vielfalt oder kreative L\u00f6sungen zwingt.<\/p>\n

Der scheinbare Nachteil entpuppt sich in Wahrheit als Vorteil, denn man kriegt einen Blick \u00fcber den eigenen Tellerrand hinaus und bekommt Inspirationen aus anderen Bereichen. Dazu geh\u00f6ren auch Zusammenh\u00e4nge, die vorher nur theoretisch bekannt waren, und f\u00fcr mich dann praktisch nachvollziehbar waren.<\/p>\n

Industrie 4.0<\/h2>\n

Hier sei der Vortrag von Dr. Irmhild Rogalla, der wissenschaftlichen Leiterin vom Institut f\u00fcr Praktische Interdisziplinarit\u00e4t in Berlin zu erw\u00e4hnen, die uns einen gut aufbereiteten Einblick in das Themenspektrum \u201cIndustrie 4.0\u201d gab. Dieses Thema war mir vorhin nur im Zusammenhang mit der \u201cAufweichung\u201d der Netzneutralit\u00e4t durch die Entscheidung des EU-Parlaments bekannt. Dadurch wurde es f\u00fcr mich klarer, wieso dies eines der schlagenden Argumente bei dieser Debatte war. Gleichzeitig wurde mir bewusst, dass wir in der Netzdebatte generell einen vielf\u00e4ltigeren Blick brauchen, damit das Internet in seiner Entwicklung wirklich nachhaltig wird. Das ist jedoch ein anderes Thema, das eigentlich nichts mit der Deaf IT Konferenz und diesem Vortrag zu tun hat, jedoch aber eine Inspiration in mir ausl\u00f6ste. Hiermit will ich nur illustrieren, welchen Mehrwert eine solche Themenvielfalt liefern kann.<\/p>\n

Earliest Adopter<\/h2>\n

Selbst praktische Zug\u00e4nge kamen auf der Konferenz nicht zu kurz. Kilian Kn\u00f6rzer demonstrierte in seiner Hackingsession live Anwendungen f\u00fcr Virtual oder Augmented Reality, machte Internet of Things praktisch via Smartphone greifbar und zeigte M\u00f6glichkeiten der Gestensteuerung via Leap Motion, einem Bewegungscontroller, auf. Das ist immer wieder ganz toll anzusehen, obwohl es eigentlich inzwischen seit Jahrzehnten ein recht gewohntes Bild ist, dass geh\u00f6rlose Menschen oft technologisch zu den Earliest Adopters von neuer Technologie geh\u00f6ren, weil sie recht schnell den praktischen Nutzen in ihrem Alltag erkennen. Man braucht nur zur\u00fcck in die Mitte der 90er Jahre erinnern, als pl\u00f6tzlich jeder Geh\u00f6rloser ein Handy hatte und sich Au\u00dfenstehende fragten, was diese mit einem mobilen Telefon machen. Dabei hatten sie die SMS damals gerade f\u00fcr sich entdeckt.<\/p>\n

Startup-Erfahrungen<\/h2>\n

\u00dcber die Erfahrung in Praxis referierte Fabian Spillner, Senior Software Engineer von gutefrage.net GmbH in M\u00fcnchen. Er gab einen Einblick in die modernen Arbeitsabl\u00e4ufe und die dabei verwendeten Technologien und Methoden, um erfolgreiche Webprodukte zu entwickeln. Wobei er ganz klar die Vor- und Nachteile aufzeigte. Er gab unter anderem praktische Tipps, welche Webhostinganbieter sich f\u00fcr bestimmte Gr\u00f6\u00dfenordnungen eignen. Dabei ging er auf die Datenschutzproblematik bei amerikanischen Hostinganbietern ein und zeigte eine deutsche Alternative auf (strato.de).<\/p>\n

Sharepoint und Open Source<\/h2>\n

Gleich zwei Vortr\u00e4ge zu gab es zu Sharepoint – einer Business Web Application Platform von Microsoft. Vicent Rothl\u00e4nder von CGI in Frankfurt\/Main zeigte, dass Office 365 – Sharepoint online ein Tool f\u00fcr Zusammenarbeit in der Cloud ist und mit selbst entwickelten oder gekauften Add-ins erweitert werden kann. Am\u00fcsant war dabei, da\u00df unter anderem Open Source Software zum Einsatz kommt (zB Yeoman, Node.js). Es war f\u00fcr mich ganz deutlich zu sehen, wie sehr sich das Businessmodell bei Microsoft ge\u00e4ndert hat. DI (FH) Florian Katzmayr von der IMC FH Krems f\u00fchrte uns in die Three Layer Architektur in C# .NET in der Anwendung von MS Sharepoint ein. Er erl\u00e4uterte dabei die Sinnhaftigkeit dieser Architektur und demonstrierte es dann gleich praktisch.<\/p>\n

Verlinkte FM-Anlagen<\/h2>\n

Phonak war einer der Sponsoren dieser Veranstaltung und mit einem eigenen Vortrag \u00fcber FM-Technologien sowie Ger\u00e4te f\u00fcr Schwerh\u00f6rige im Arbeits- und Berufsalltag im Programm vertreten. Was zun\u00e4chst ein wenig als ein f\u00fcr die Konferenz abweichendes Thema klang, entpuppte stellte sich dann dennoch als relevant heraus. Selbst bei FM-Ger\u00e4ten hat das Plug-and-Play-Prinzip Einzug gehalten und es gibt eigene Apps f\u00fcr das Smartphone dazu.<\/p>\n

Spielentwicklung mit Unity3D<\/h2>\n

Das Thema Spieleentwicklung bildete den Abschlu\u00df des ersten Tages. Es wurde ein \u00dcberblick gegeben, wie Spiele modular aufgebaut werden k\u00f6nnen, indem man bereits vorhandene Assets verwendet, die im Assets Store frei verwendet oder gekauft werden k\u00f6nnen. Am Ende dieses Vortrag kam es zu einer interessanten Diskussion, wie man die Spieleentwicklung f\u00fcr Lernprogramme in Geb\u00e4rdensprache nutzen und wie in etwa die Arbeitsabl\u00e4ufe in einem Projekt mit verschiedenen Partnern aussehen k\u00f6nnte. Im Prinzip ist das eigentlich selbstverst\u00e4ndlich, jedoch ging es hier speziell um das Sicherstellen der Qualit\u00e4t, vor allem in Hinblick mit den 3D-Technologien.<\/p>\n

SiMAX Geb\u00e4rdensprachavatar<\/h2>\n

Der letzte Vortrag am Sonntag handelte um den Geb\u00e4rdensprachavatar SiMAX von SignTime GmbH in Wien. Claudia Schweinzer zeigte uns, wie das Projekt entstanden, wie dieser Avatar technologisch aufgebaut ist, wie die Arbeitsabl\u00e4ufe in der Umsetzung von solchen Avatar-Videos aussehen und welche m\u00f6glichen Einsatzm\u00f6glichkeiten es gibt. Sie wurde nicht m\u00fcde zu betonen, dass man noch in der Entwicklung befindet. Im Prinzip ist es eine eigene Softwareumgebung mit einer riesigen Datenbank, wo man wie bei einem \u00dcbersetzungsprogramm Texte eingeben kann und dann der Videooutput von einem Instrukteur sinnvoll ein- und zusammengestellt wird.<\/p>\n

F\u00fcr mich pers\u00f6nlich gibt es bei Geb\u00e4rdensprachavataren technologisch unterschiedliche Herangehensweisen, die man unterscheiden sollte. Eine davon ist \u00e4hnlich wie in der Filmproduktion, wo eine echte geb\u00e4rdende Person mit Markern versehen wird und seine komplette Bewegungsausf\u00fchrung samt Mimik auf eine eine 3D-Figur \u00fcbertragen wird (Motion Caption). Die qualitativen Unterschiede von SiMAX zur Motion-Caption-Technologie sind momentan noch sehr gro\u00df (Fl\u00fcssigkeit in der Bewegung, im Ausdruck der Mimik und in der linguistischen Korrektheit), dennoch gibt es berechtigte Einsatzm\u00f6glichkeiten (zB Echtzeitinformation in Geb\u00e4rdensprache im Katastrophenfall).<\/p>\n

User Experience als digitales Wellenreiten<\/h2>\n

Nun komme ich zu meinem Er\u00f6ffnungstalk \u00fcber die User Experience als digitales Wellenreiten, auf welches ich hier etwas ausf\u00fchrlicher eingehen werde. Ich war immer schon vom Wellenreiten fasziniert, als ich als 12j\u00e4hriger es erstmals im Film \u201cNorthshore\u201d sah und das letzte Mal bei \u201cMavericks – Lebe deinen Traum\u201d \u00fcber das Leben der Surferlegende Jay Moriarity. Ich kam selbst noch nie zum Wellenreiten. H\u00f6chstens einmal konnte ich das Erlebnis in etwa nachempfinden, als ich einst auf der Venice Beach in Santa Monica in Kalifornien mich k\u00f6rperlich steif machte und mich von einer Welle an den Strand sp\u00fclen lie\u00df.
\n