Was sind ethische Standards für künstliche Intelligenzen? Brauchen wir diese?
Liebe Community, ich möchte mit dieser ersten Frage eine Debatte zum Thema Künstliche Intelligenz - Chancen und Risiken anstossen, und gemeinsam mit Euch überlegen, wie man die Risiken minimieren und die Chancen im Sinne einer besseren und gerechteren Welt nutzen kann. Ich freue mich über viele Zukunftsgestalter*innen, die sich hierzu Gedanken machen!
Besonders interessiert mich die Meinung und Expertise von Mareike Stender ; Jakob Seidler ; Janine Kerner und Maxim Nenahof
Noch kein Profil auf reflecta.network?
Melde dich jetzt kostenlos an und lerne andere Zukunftsgestalter:innen kennen.
Profil erstellenÄhnliche Fragen:
-
Wer könnte sich für einen mit 15.000 Euro dotierten Preis für "Lebenslanges L...
1
-
Workshop zu Künstliche Intelligenz und Bias
3
-
Wer kann eine*n Expert*in für PR/Marketing Kampagne & Skalierung empfehlen?
5
-
Wie können wir eine Art Notfallnummer einrichten?
11
Weitere Fragen zu diesen Themen:
-
Benötige LOGO - LaKunaBi bittet um Hilfe, um endlich z.B. hier mit unterschre...
2
-
Buchtipps gesucht rund um Gemeinschaft aufbauen und Synergien nutzen
8
-
Kennst du eine(n) WissenschaftlerIn, Journal oder Uni, die Unterstützung bei ...
3
-
Derzeit tobt die Diskussion um KI und kreative-KI-Tools. Welche Erfahrungen h...
5
-
Einrichtung von Lexware Kontenrahmen SKR49
3 1
Kannst du helfen?
-
Wer kann KOSTENLOSEN IT-SUPPORT gebrauchen?
-
Liebe Community, Bodyworkerin sucht Wohn- und Arbeitsraum im süddeutschen Rau...
Die Gefahr Hacking und Datenschutz sind definitiv wichtig, aber nicht ein spezielles Problem mit Künstlicher Intelligenz. Man könnte zwar die Sammlung der Datenmengen notwendig für unsere gegenwärtigen Algorithmen als grundsätzlich schlechten Anreiz, um Privatsphäre zu schützen, ansehen, aber auch das ist nur bedingt der Fall, da vor allem im Fall von Big Data und Machine Learning im resultierenden Modell nichts persönliches mehr vorhanden ist. Eine spezielle Gefahr zu der wir uns ethische Fragen stellen müssen ist auf der einen Seite schlechte Diskriminierung, also Andersbehandlung von Personen aufgrund von irrelevanten Attributen, durch Algorithmen. Auf der anderen Seite wie schnell man diese Hochskalieren darf ohne sie ausreichend getestet zu haben. Schlussendlich bleibt noch die extrem interessante Frage, was wir tun wenn KI so gut wird, dass man Inhalte von KIs nicht mehr von menschengemachten unterscheiden kann. Zum Beispiel GPT3 oder GPT-Neo generiert menschenähnlichen Text am laufenden Band. Wie bringen wir das an die Öffentlichkeit ohne jegliche Möglichkeit FakeNews im Internet zu limitieren aufzugeben. Wenn kleine Gruppen mit vielen falschen Accounts Informationspubklikation zu jedem Thema komplett automatisieren können, wie funktioniert unsere Gesellschaft dann? Wie gehen wir mit KI auf diesem Level um und wie nutzen wir es zum Guten und limitieren das Negative?
Und dann gibt es noch KI-Waffen und die Frage, ob wir es als ethisch vertretbar befinden, dass sie autonom Menschen töten dürfen. KI strotz nur so von echt wichtigen ethischen Fragen.
Zahlreiche Organisationen haben in der letzen Zeit Grundsätze zur ethischen KI Entwicklung entwickelt. Auch Staaten bewegen sich momentan in die Richtung, zum Beispiel verbieten mehr und mehr statten den Einsatz von Gesichtserkennung. Gleichzeitig hat die EU einen Regulierungsvorschlag vorgelegt, der der bisher ambitionierteste und stärkste weltweit ist.
Hello in die Runde. Ich bin erst etwas später auf diese Post aufmerksam geworden. Super, dass sich einige bereits so viele Gedanken um das Thema machen! Ohne an dieser Stelle weiter einzutauchen, aber die Punkte von Andrea und Jakob weiter oben aufgreifend:
* der Link zu den EU Regularien (https://ec.europa.eu/germany/news/20210421-kuenstliche-intelligenz-eu_de)
* ein paar Institute aus dem Bereich: https://ethical.institute/ / https://zevedi.de/ / https://ieai.mcts.tum.de/ / https://www.responsible.ai/
* eine aktuelle Buchempfehlung https://www.genialokal.de/Produkt/Kate-Crawford/Atlas-of-AI_lid_41626992.html
* und weil gerade kostenlos auf youtube verfügbar eine Doku Empfehlung: https://www.youtube.com/watch?v=7mqR_e2seeM
Hi Tobi,
kannst Du das Video (an-)sehen? Bei mir heißt es, es sei nicht zur Verfügung.
ist eigentlich öffentlich. Schau mal nach The Social Dilemma - sollte man auch per Suche finden.
Danke fürs Verlinken ! 🙂
Natürlich bringt jede Art von Digitalisierung Unsicherheiten und die Gefahr des Hackings mit sich. Gerade die Sicherung von personenbezogenen Daten hat einen hohen Stellenwert in der Entwicklung von intelligenten Systemen.
Meiner Meinung nach benötigen wir auf jeden Fall ethische Standards im Rahmen der Digitalisierung und KI.
Stichwort Crowdsourcing: hier können wir Gleichgesinnte finden, die das Projekt einerseits bewerben können und andererseits selbst Ideen einbringen können:
http://www.paperball.de/
https://www.google.de/alerts
https://www.monitoringmatcher.de/2017/07/5-kostenlose-google-alerts-alternativen/
https://www.loop-media.de/liste-kostenlose-presseportale/, z.B. https://xn--brgersagt-q9a.de/ klingt interessant zum Erreichen von Bürgern
https://www.pronline.de/kostenlose-presseportale/
natürlich soziale Netzwerkgruppen noch, und Du, Andrea, kannst u.a. noch bei SEND Werbung machen. :-)
Ich spreche mich ganz klar für künstliche Intelligenz, freue mich auf die Vorteile, doch im Moment sehe ich leider fast nur die Gefahren: https://www.nextpit.de/kuenstliche-intelligenz-gefahren oder https://www.zdf.de/nachrichten/heute/cybersicherheit-digitalisierung-macht-stromnetze-angreifbar-102.html
Hallo zusammen,
ich klinke mich mal an dieser Stelle in die Diskussion ein. Ein sehr spannendes und leider noch nicht umfassend betrachtetes Problem mit Blick auf KI/ML und Co sind klar die Auswirkungen und Bezüge zur Nachhaltigkeit.
Das es ethische Grenzen geben muss, steht sicherlich außer Frage - doch welchen Rahmen geben wir diesen Ansätzen?
Biases in Algorithmen möchte offiziell niemand haben, aber die Praxis und Erfahrung zeigt, dass es den Verantwortlichen und insbesondere den Umsetzenden an Orientierung fehlt. Ob nun die Bilderkennung die komplette Personengruppen ausgrenzt, Ranking und Rating Verfahren im Sinne einer Black Box vollkommen ohne Einblick/Verständnis von außen die Entscheidungen treffen oder Zweckentfremdung zum gezielten Einsatz wider Menschenrechten und ethischen Grundlagen - es fehlt an der Selbstverpflichtung /Wahrnehmung der Verantwortung. Dabei gibt es dazu schon lange Vorschläge und Vorgaben (ACM, FiFF...) die man verwenden könnte, doch in der Umsetzung tun sich die meisten damit schwer. Gerade auch weil sich das natürlich in den Umsetzungsalltag schwer integrieren lässt und evtl. auch Zeit und Kosten-Gründe vorgeschoben werden.
Etwas das mir in der generellen Debatte um den Einsatz von KI momentan auch noch etwas zu kurz kommt sind die ökologischen Folgen des Optimierungs- und Trainingswahn. Wenn 5% in der mAP 5x soviel Ressourcen fressen, kann man auch Verantwortung einbeziehen ob es so "gut" sein muss..
Hoffe der Input konnte euch helfen :-)
"Fake-Ethiker" - mich gruselt: https://www.deutschlandfunk.de/kuenstliche-intelligenz-und-ethics-washing-wir-haben-keine.680.de.html?dram:article_id=498700
Liebe Andrea, auch ich spreche mich für HackingEthik aus, wobei ich unter Hacking den kreativen Umgang mit Technologie verstehe (nicht zu verwechseln mit Cracking). Ich habe meine Prinzipien zusammengefasst unter: https://arbeitswelten-lebenswelten.com/hackerethik. Lass Dich gern inspirieren!
Vielleicht mögt Ihr Euch auch zum Stuttgarter Zukunftskongress anmelden, der den dringend erforderlichen Dialog in der Zivilgesellschaft zum Thema künstliche Intelligenz fördert. Mehr Infos gibt es hier:
https://integrata-stiftung.de/veranstaltungen/euki/kongress2021/
Hi Andrea,
""Fake-News oder Fake-Rezensionen). Wenn zukünftig KIs unsere Texte schreiben, muss man dann in der Schule noch lernen, wie man Aufsätze schreibt?..." LOL. Auch wenn es überhaupt nicht zum Lachen ist. So wie heute Menschen nicht wissen mit wem sie chatten, ob es tatsächlich die attraktive Person wie auf dem Foto gezeigt wird, ob es bei einem Kind ein Pädophiler oder Päderast die Chatperson ist und kein anderer Jugendlicher, werden wir künftig nicht mal wissen, hinter welchem Geschriebenen tatsächlich ein Mensch sich befindet. Ich finde das höchst beunruhigend. Also, wenn ich mal wieder ungefragt Ratschläge erteilt habe, war das eine künstliche Intelligenz. :-))
Salve,
Romana