Von: mk
Bozen – Künstliche Intelligenz hat das Potenzial, der Menschheit zu einem enormen Schub nach vorne zu verhelfen. Gleichzeitig treten auch die Schattenseiten neuer Technologien immer deutlicher hervor, wie zuletzt KI-generierte Nacktbilder der Journalistin Francesca Barra bewiesen haben. Innovation bringt nicht nur das Beste ins uns zum Vorschein, sondern bedient auch unsere niedrigsten Instinkte.
Der Franziskanerpater Paolo Benanti, Professor für „Ethik der Technologien“ an der päpstlichen Universität Gregoriana in Rom, der von der Regierung in Rom zum Chef der Kommission für künstliche Intelligenz ernannt wurde, benennt drei Bereiche in der Gesellschaft, die durch KI maßgeblich beeinflusst werden.
Während er die Folgen von KI auf wissenschaftliche Forschung sowie auf die Arbeitswelt positiv einschätzt, warnt er vor der Wirkung von KI auf die öffentliche Meinung. KI kann nicht nur mit Fake News den politischen Diskurs in sozialen Netzwerken manipulieren, sondern uns auch mit gezinkten Fotos und Videos täuschen.
Weil KI einerseits die Fähigkeit hat, etwas völlig Neues zu generieren, andererseits aber auch das Äußere von existierenden Menschen bis ins kleinste Detail kopieren kann, werden künstliche erzeugte Fotos und vor allem auch Videos – sogenannte Deepfakes – zunehmend realistischer.
Dadurch untergraben sie das öffentliche Vertrauen. KI generierte Bilder und Videos eröffnen Betrügern ein völlig neues Spielfeld. Sie bieten Kriminellen, die mittels Videoaufnahmen überführt werden, Deckung und plausible Ausreden, während Deep Nudes verwendet werden, um Menschen zu demütigen und zu verletzen. Digitale Technologien verkommen so zu einer neuen Waffe, die sich vor allem gegen Frauen richtet.
Dass in den nächsten zehn Jahre unser Informationsökosystem mit künstlich erzeugten Medieninhalten regelrecht überflutet wird, ist für viele Experten wahrscheinlich. Das erfordert nicht nur gesetzliche Regelungen. Nutzer benötigen unbedingt auch technische Mittel, um echte Fotos und Videos von gefakten zu unterscheiden.


 
                                 
                                 
                                 
                                 
                                 
                                                 
                                                                                                 
                                                                                                 
                         
                        

Aktuell sind 1 Kommentare vorhanden
Kommentare anzeigen