Kann KI die Persönlichkeit vorhersagen?

Veröffentlicht am: 5. August 2024

Autor:

Hogan Blog

Lesedauer:

Reading Time: 17 Minuten

Ein Hogan Blog Leitfaden zum Thema Persönlichkeitsassessments in der Ära der KI.

Künstliche Intelligenz ist wahrscheinlich älter, als man denkt. Als Konzept existiert KI seit mehr als 70 Jahren1, und die ersten Modelle wurden Mitte der 1950er Jahre gebaut. Obwohl die Technologie nicht brandneu ist, steht sie derzeit im Mittelpunkt des öffentlichen Interesses. Dies gilt insbesondere für den Einsatz von KI in Persönlichkeitstests und anderen Anwendungen des Talentmanagements. Hogan hat diesen Leitfaden zusammengestellt, um einige Ihrer dringendsten Fragen zu KI, Persönlichkeitstests und Talentmanagement zu beantworten.

Bitte beachten Sie, dass dieser Leitfaden eine Momentaufnahme ist. Er zeigt, was KI heute ist, wie KI in der Arbeitsbewertung eingesetzt wird und welche Auswirkungen sie zu einem bestimmten Zeitpunkt auf Unternehmen hat. Die Landschaft entwickelt sich so schnell weiter – manchmal stündlich -, dass die Technologie plötzlichen, bedeutenden Veränderungen unterworfen ist. Aus diesem Grund hat Hogan in diesem Leitfaden Ideen und Strategien hervorgehoben, die Entscheidungsträgern helfen sollen, sich im Zeitalter der KI zurechtfinden.

Was ist künstliche Intelligenz (KI)

Künstliche Intelligenz oder KI bezieht sich auf ein Computersystem, das menschliches Denken nachahmt. Beispiele für Aufgaben, die eine menschenähnliche Intelligenz erfordern, sind Wahrnehmungen, das Verstehen der Sprache, das Zusammenfassen von Informationen, das Ziehen von Schlüssen, Lösen von Problemen und das Treffen von Entscheidungen. Das Treffen von Vorhersagen ist eine weitere Möglichkeit, wie sich eine KI menschlichen Denkprozessen annähern kann. Eine KI, die diese Aufgabe übernimmt, analysiert eine Vielzahl von Daten und versucht, ein Ergebnis vorherzusagen. Sie kann ihre Vorhersagen im Laufe der Zeit verfeinern oder „lernen“, wie sie genauere Vorhersagen treffen kann.

Es ist wichtig, einige wichtige Begriffe im Zusammenhang mit künstlicher Intelligenz zu wiederholen:

  • Künstliche Intelligenz oder KI – Künstliche Intelligenz ist ein Computersystem, das menschliche Denkprozesse automatisiert.
  • Algorithmus – Ein Algorithmus ist eine Reihe von Schritt-für-Schritt Anweisungen oder Regeln für ein Computersystem, um ein Problem zu lösen oder eine Aufgabe zu erfüllen.
  • Maschinelles Lernen – Maschinelles Lernen ist eine Form der künstlichen Intelligenz, bei der Computersysteme aus Daten lernen und ihre Leistung verbessern, ohne explizit programmiert zu werden.
  • Verarbeitung natürlicher Sprache (NLP) – die Verarbeitung natürlicher Sprache ist eine Technologie, die es Computersystemen ermöglicht, die menschliche Sprache zu verstehen und zu verwenden.
  • Großes Sprachmodell – Ein großes Sprachmodell ist eine Art von KI-Technologie, die NLP nutzt, um Inhalte auf der Grundlage großer Datenmengen zu erstellen. ChatGPT wird beispielsweise von einem großen Sprachmodell angetrieben.

Viele Menschen, die an KI denken, stellen sich wahrscheinlich Computer oder Roboter vor, die wie Menschen sprechen und handeln können. Heutzutage sind die meisten KI-Systeme Computeranwendungen. Sie unterscheiden sich von anderen Arten von Programmen oder Software durch die Art und Weise, wie sie Aufgaben ausführen. Moderne KI-Systeme lernen nicht durch direkte Programmierung, sondern durch die Erfahrung von Versuch und Irrtum – eine der Arten, wie Menschen lernen. Mit anderen Worten, maschinelles Lernen ist der Versuch, komplexe statistische Modelle zu verwenden, damit der Computer aus seinen Fehlern lernen kann.

Lesen Sie weiter, um mehr über den Einsatz von KI im Talentmanagement und insbesondere über KI in Persönlichkeitstests zu erfahren.

Kann KI die Persönlichkeit vorhersagen?

Ja, KI kann Persönlichkeit vorhersagen. Das hängt natürlich davon ab, was wir unter „Persönlichkeit“ verstehen.

„Wenn wir uns die Persönlichkeit als unseren biologischen Kern oder unseren Ruf vorstellen, kann die KI dies in gewissem Maße vorhersagen“, sagt Ryne Sherman, PhD, Chief Officer bei Hogan. “ Aber nicht annährend so stark, wie sie die Dinge vorhersagen kann, die wir über uns selbst sagen“, fügte er hinzu. KI kann verschiedene Datenquellen wie Text, Sprache und Aktivitäten in den sozialen Medien analysieren, um zu berechnen, wie jemand auf Fragen in einem Persönlichkeitstest reagieren könnte. Bis zu einem gewissen Grad kann die KI also vorhersagen, wie Menschen in Persönlichkeitstests abschneiden werden.

Gezielte Werbung ist eine bekanntes Beispiel für die Prognosefähigkeit von KI. Wenn jemand auf der Suche nach Campingausrüstung ist und seine Freunde nach Restaurants in Denver fragt, ist es kein großer logischer Schritt, anzunehmen, dass er einen Campingausflug nach Colorado plant. Ein KI-System könnte ihm dann Anzeigen für Hochgebirgszelte oder Wanderschuhe zeigen, die für bergiges Gelände geeignet sind.

Wenn eine KI über die persönliche Daten einer Person verfügt, können ihre Algorithmen des maschinellen Lernens diese Daten analysieren, um die Persönlichkeit vorherzusagen. Jüngste Untersuchungen haben gezeigt, dass ein KI-Chatbot, der aus dem Text von Online-Interviews Persönlichkeitswerte ableitete, im Großen und Ganzen zuverlässig war.2 Der einfachste Weg, die Persönlichkeitswerte einer Person herauszufinden, ist jedoch, sie zu bitten, einen Persönlichkeitstest zu machen!

„Technologie treibt viele Trends in unserer Branche an, von denen einige einen länger anhalten als andere“, sagt Allison Howell, MS, Vice President of Market Innovation bei Hogan. „Die Zukunft der KI ist unglaublich aufregend, aber man darf nicht vergessen, dass die Technologie noch in den Kinderschuhen steckt. Während wir potenzielle Anwendungen erforschen, hat unser Engagement für Qualität und fundierte Wissenschaft weiterhin höchste Priorität.“

Um erfolgreiche Vorhersagen treffen zu können, muss jede KI aus den richtigen Daten lernen, und benötigt Feedback, ob sie die richtigen Assoziationen hergestellt hat. Wenn eine KI eine Vorhersage auf der Grundlage falscher Daten trifft, wird die Vorhersage ungenau sein. Deshalb sollte die traditionelle Persönlichkeitsbeurteilung nur einer von vielen Faktoren sein, die Menschen bei der Entscheidung über Talente berücksichtigen sollten.

Wie wird künstliche Intelligenz in Persönlichkeitstests eingesetzt?

In der Persönlichkeitspsychologie kann künstliche Intelligenz eingesetzt werden, um Antworten auf Fragen zu analysieren, Muster in Daten zu erkennen und Vorhersagen über Persönlichkeitsmerkmale zu treffen. Die Frage, ob sie dies tun sollte, wirft ethische und regulatorische Fragen auf, die wir später in diesem Leitfaden behandelt werden.

KI kann Daten aus Persönlichkeitsbewertungen oder aus anderen Quellen, wie z. B den sozialen Medien oder dem Suchverlauf einer Person, verwenden, um ein Ergebnis (z.B. die Arbeitsleistung) vorherzusagen. Einige KI-Programme können sogar Audio- und Videodaten analysieren, um Rückschlüsse auf die Persönlichkeit einer Person zu ziehen. Wenn Menschen jedoch Einstellungsentscheidungen auf der Grundlage von KI-Interviews oder KI-Gesichtsscans treffen, ist eine Verzerrung wahrscheinlich.3

Eine Möglichkeit für den Einsatz von KI in Persönlichkeitstests ist die Unterstützung bei der Erstellung von Fragen oder Aufgaben für das Assessment. Assessment-Unternehmen könnten KI einsetzen, um Fragen oder zustimmende oder ablehnende Aussagen zu formulieren, um z.B. um festzustellen, wie gewissenhaft eine Person wahrscheinlich handeln wird. Die Genauigkeit der Ergebnisse einer KI – in diesem Beispiel Beurteilungsfragen oder Vorhersagen zur beruflichen Leistung – hängt von den Daten ab, die sie als Input verwendet und von der Anzahl der Anpassungen, die sie an ihren Algorithmen vorzunehmen gelernt hat.

Verwenden die Hogan Persönlichkeitstests künstliche Intelligenz?

Nein, Hogan setzt in seinen Persönlichkeitstests keine künstliche Intelligenz ein. „Unsere Tests basieren auf traditionellen psychometrischen Theorien die gründlich erforscht und getestet wurden“, erklärt Weiwen Nie, PhD, Research Consultant. „Deshalb ist die Art und Weise, wie wir unsere Tests entwickeln, der Goldstandard in der Persönlichkeitsforschung.“

Unser Ziel bei der Messung der Persönlichkeit ist es, nicht nur mehr über den Einzelnen zu erfahren, sondern auch seine Leistung am Arbeitsplatz vorherzusagen. Hogan verfügt über jahrzehntelange wissenschaftliche Erfahrung, die zeigt, dass wir diese Ziele erreichen.

Wenn ein Unternehmen behauptet, KI in Persönlichkeitstests einzusetzen, die KI aber keine eindeutigen Algorithmen verwendet oder sich nicht an eine verlässliche psychometrische Theorie hält, sind die Ergebnisse nicht interpretierbar. Selbst wenn die Testergebnisse Persönlichkeitsmerkmale beschreiben, kann niemand mit Sicherheit wissen, ob sie fair oder überhaupt relevant sind, wenn der Algorithmus, mit dem sie erzeugt wurden, nicht nachvollziehbar ist. Dies ist das sogenannte Black-Box-Problem. Wenn wir nicht wissen, welche Faktoren den Vorhersagen eines Assessments zugrunde liegen, sind die Ergebnisse für die Talentförderung nutzlos – und für die Talentakquise unethisch. (Dazu später mehr).

Hogan nutzt einige der Vorteile, die sich aus dem Einsatz von KI in Talentanalyseprozessen ergeben. Wir verwenden natürliche Sprachverarbeitung, um Stellenbeschreibungen in Jobfamilien zu klassifizieren. Natürliche Sprachverarbeitung hilft uns auch bei der Kodierung der Daten von Fachexperten, wenn wir Stellenanalysen durchführen. Unsere Fachexperten prüfen und validieren die Ergebnisse. KI hilft uns, diese Prozesse zu automatisieren, damit wir das beste Persönlichkeitsprofil für eine bestimmte Stelle erstellen können. Der Einsatz von KI spart uns Zeit und Ressourcen und verbessert in einigen Fällen sogar unsere Analysen.

Ist es möglich, bei Persönlichkeitstests mit Hilfe von KI zu „schummeln“?

Die Antwort lautet: Ja, aber es ist nicht vorteilhaft, dies zu tun. Unsere Forschung zeigt, dass KI-Systeme Persönlichkeitstests in der Regel mit sozial erwünschten Antwortmustern beantworten – unabhängig vom Kontext. Selbst wenn wir die KI bitten, so zu antworten, als würde sie sich für eine Stelle als Finanzanalystin oder Verkäuferin bewerben, wird sie die Frage auf die gleiche Weise beantworten.

Die offensichtlichen Antworten machen es leicht, die Testergebnisse der KI zu erkennen. Hogan hat sogar ein Tool entwickelt, mit dem man feststellen kann, ob ein Teilnehmer ChatGPT verwendet hat, um die Hogan-Persönlichkeitstests zu absolvieren. Wir haben eine Studie durchgeführt, um die Wirksamkeit des Tools bei der Erkennung von Betrug zu bewerten, indem wir 100 Sätze von Testergebnissen mit den Antwortmustern von ChatGPT simuliert haben. Um sicherzustellen, dass das Tool keine falschen Antworten anzeigt, haben wir das Tool auch mit den Ergebnissen von 512.084 Befragten getestet, die vor der Einführung von ChatGPT erfasst wurden. Die Ergebnisse? Hogans Tool erkannte 100 Prozent der ChatGPT-Antworten und markierte null Prozent der richtigen Antworten.

Abgesehen davon, dass es leicht zu erkennen ist, ist es ein Fehler, ein Computerprogramm ohne Persönlichkeit um Hilfe bei einer Persönlichkeitsbeurteilung zu bitten. Diese Art von unehrlichem Verhalten von Bewerbern ist wahrscheinlich auch in anderen Phasen des Einstellungsverfahrens zu beobachten.

Wie kann KI zur Verbesserung von Talentmanagementprozessen eingesetzt werden?

Die Vorteile des Einsatzes künstlicher Intelligenz zur Verbesserung von Talentmanagementprozessen sind vielfältig. Zu den praktischen Anwendungen von KI gehört die Unterstützung der Entscheidungsfindung in Bereichen wie Rekrutierung, Onboarding, Leistungsmanagement, Lernen und Entwicklung sowie Nachfolgeplanung. Sie kann Texte zusammenfassen, Aufzeichnungen führen, Daten vergleichen und bei der Recherche, Organisation und Erstellung von Entwürfen helfen.

„Die Stärke der KI liegt darin, große Datenmengen effizient zu analysieren und auf der Grundlage dieser Analyse Vorhersagen zu treffen“, so Chase Winterberg, JD, PhD, Direktor des Hogan Research Institute. Er erwähnt, dass KI bei der Bewältigung einer großen Anzahl von Bewerbern helfen könnte, indem sie die Bewerber priorisiert und es den Menschen ermöglicht, sinnvollere Arbeit statt langweiliger, sich wiederholender Aufgaben zu verrichten. In ähnlicher Weise könnten KI-Chatbots Routineanfragen der Personalabteilung bearbeiten, während sie differenziertere Fragen an Menschen weiterleiten.4 (Beachten Sie, dass die Verwendung von KI-Daten bei der Talentakquise Risiken birgt, aber darauf gehen wir später ein).

Bei der Rekrutierung von Talenten kann KI dabei helfen, die wichtigsten Kompetenzen für eine Stellenbeschreibung zu ermitteln. Sie kann auch dabei helfen, herauszufinden, welche Persönlichkeitsmerkmale für die Leistung in dieser Position am wichtigsten sind.

In der Talententwicklung könnte ein KI-Programm das Zeitmanagement der Mitarbeiter analysieren und personalisierte Vorschläge zur Effizienzsteigerung oder Rationalisierung von Prozessen machen. Ein KI-Chatbot könnte sogar als virtueller Coach auf Abruf fungieren und Menschen dabei helfen, ihre Leistung am Arbeitsplatz zu verbessern. Er könnte auch maßgeschneiderte Karriereempfehlungen für ein bestimmtes Persönlichkeitsprofil geben oder eine Reihe sinnvoller Schritte zur Erreichung bestimmter Karriereziele vorschlagen.

Welche Risiken birgt der Einsatz von KI bei der Talentakquise und Talententwicklung?

Zu den Risiken des Einsatzes von KI bei der Rekrutierung von Talenten gehört, dass Entscheidungen auf der Grundlage von KI-generierten Informationen getroffen werden, die potenziell voreingenommen sind. KI-gesteuerte Entscheidungen könnten unbeabsichtigt bestehende Vorurteile verstärken oder neue Vorurteile schaffen, was zu einer ungerechten Behandlung bestimmter Gruppen von Bewerbern führen könnte. Beispielsweise könnte eine KI fälschlicherweise davon ausgehen, dass geschützte Merkmale, ein bestimmter Bildungsstand oder eine bestimmte Berufserfahrung erforderlich sind, um eine Stelle gut auszufüllen – und Bewerber ausschließen, die ihren Annahmen nicht entsprechen.

„Der effektive Einsatz von KI in der Personalbeschaffung erfordert ein tiefes Verständnis der verwendeten Daten“, sagt Dr. Alise Dabdoub, Direktorin für Produktinnovation bei Hogan. „Fortschrittliche statistische Methoden allein können ein unzureichendes Forschungsdesign nicht kompensieren. Ein umfassendes Verständnis der Daten ist unerlässlich, um potenzielle Risiken und Verzerrungen bei der Entscheidungsfindung zu vermeiden.

Die Risiken des Einsatzes von KI in der Talententwicklung liegen in der mangelnden Inklusivität und Zugänglichkeit. Wenn ein Unternehmen beispielsweise KI für das Coaching einsetzt, könnte die KI einer Person, die einer historisch marginalisierten Gruppe angehört, vorschlagen, sich so zu verhalten wie eine Person, die einer historisch privilegierteren Gruppe angehört. Dies ist nicht nur nicht der beste Weg für diese Person, sondern führt auch zu systemischen Vorurteilen. KI-Systeme haben einen algorithmischen Prozess, mit dem sie Aufgaben ausführen, aber dieser Prozess ist nicht immer sichtbar. Ohne die Möglichkeit, die Algorithmen zu überprüfen, können wir nicht mit Sicherheit wissen, wie ein KI-System seine Daten verwendet.

Der Einsatz von KI bei menschlichen Entscheidungen wird von vielen US-Arbeitnehmern negativ gesehen. Einundsiebzig Prozent der Erwachsenen in den USA lehnen den Einsatz von KI bei der endgültigen Einstellungsentscheidung ab. 5 Selbst bei der Prüfung von Bewerbungen lehnen 41 Prozent den Einsatz von KI durch Arbeitgeber ab.5 „Es besteht die Gefahr von Fehlinformationen, Verwirrung und Schwierigkeiten, fundierte Entscheidungen zu treffen“, sagt Dr. Winterberg. Talentmanager müssen beim Einsatz von KI als Entscheidungshilfe sehr selektiv vorgehen.

Wie können Fachkräfte im Talentmanagement beim Einsatz von künstlicher Intelligenz Voreingenommenheit abschwächen und nachteilige Auswirkungen verhindern?

Um Voreingenommenheit und negative Auswirkungen beim Einsatz von künstlicher Intelligenz zu vermeiden, können sich Talentmanager auf die Datenqualität und die Aufrechterhaltung der Transparenz konzentrieren.

Die Konzentration auf die Datenqualität kann dazu beitragen, Verzerrungen und nachteilige Auswirkungen von KI-Systemen zu vermeiden. Wenn Daten von geringer Qualität oder unzureichender Vielfalt sind, werden KI-Systeme Ergebnisse von geringer Qualität oder potenziell verzerrte Ergebnisse produzieren. „Wir wollen nur Variablen berücksichtigen, die für die Arbeit relevant oder wichtig sind, um im Job erfolgreich zu sein“, sagt Dr. Winterberg.

Eine Möglichkeit festzustellen, ob die arbeitsrelevanten Daten von hoher Qualität sind, besteht darin, die Ergebnisse des KI-Systems zu testen oder zu überprüfen. Strenge KI-Tests können Möglichkeiten aufzeigen, wie die Daten verbessert werden können, um bessere Ergebnisse zu erzielen. „Grundsätzlich müssen KI-Systeme immer auf mögliche Verzerrungen überprüft werden“, sagt Dr. Sherman.

Transparenz in der Entscheidungsfindung beim Einsatz von KI-Systemen kann ebenfalls dazu beitragen, Verzerrungen abzuschwächen und negative Auswirkungen zu vermeiden. Die Notwendigkeit von Transparenz in jedem Talentmanagementprozess ist nicht neu. „Transparenz ist der Grundstein für den Aufbau von Vertrauen und die Gewährleistung ethischer Praktiken bei der Talentakquise“, so Dr. Dabdoub. „Es ist unerlässlich, klare Beweise dafür zu liefern, dass jedes Auswahlsystem für die Stelle relevant, leistungsvorhersagend und fair ist.

Wenn die von einem KI-System generierten Daten nicht transparent sind, sollten Personalleiter vorsichtig sein, sie für Entscheidungen im Talentmanagement zu verwenden. Unternehmen sollten interne Prozesse einrichten, um Voreingenommenheit zu erkennen, und diversifizierte KI-Entwicklungsteams bilden, bis die Technologie Qualitätsstandards erfüllt.6

Welche Vorschriften gibt es für den Einsatz von KI bei Talententscheidungen?

Politische Entscheidungsträger auf der ganzen Welt diskutieren immer noch darüber, wie der Einsatz von künstlicher Intelligenz im Talentmanagement am besten geregelt werden kann. Es ist schwierig zu entscheiden, wie viel Risiko man eingehen kann, ohne die Vorteile, die KI bieten kann, zu schmälern. Es gibt jedoch bereits Gesetze, die im Wesentlichen für jede Personalentscheidung gelten, unabhängig davon, ob sie von Menschen getroffen wird oder nicht. Dr. Winterberg brachte es auf den Punkt: „Es ist illegal, geschützte Gruppen zu diskriminieren“.

Wir haben hier einige bemerkenswerte Bestimmungen aufgelistet, und viele weitere sind in der Entwicklung. Beachten Sie, dass einige Punkte in der folgenden Liste bewährte Verfahren darstellen, während andere gesetzlich vorgeschrieben sind:

  • Die ethischen Richtlinien der American Psychological Association besagen, dass nur qualifizierte Personen psychologische Testergebnisse interpretieren sollten, was bedeutet, dass AI nicht zur Interpretation von Beurteilungen verwendet werden sollte.7
  • Die Society for Industrial and Organizational Psychology (SIOP) hat Best-Practice-Empfehlungen veröffentlicht, die sich auf die Entwicklung, Validierung und Anwendung aller Einstellungspraktiken, einschließlich KI, beziehen. Die SIOP hat auch eine Erklärung veröffentlicht, die sich speziell auf die Verwendung von KI-basierten Bewertungen für die Mitarbeiterauswahl bezieht.8
  • Die Europäische Kommission hat drei übergreifende Grundsätze dafür aufgestellt, was KI-Systeme vertrauenswürdig macht. Künstliche Intelligenz sollte rechtmäßig, ethisch einwandfrei und robust sein.9
  • Die Uniform Guidelines sind Empfehlungen der US-Bundesregierung zur Einhaltung von Titel VII des Civil Rights Act, der Arbeitnehmer und Bewerber vor Diskriminierung bei der Einstellung schützt. Die Richtlinien gelten für alle Instrumente zur Entscheidungsfindung im Beschäftigungsbereich, einschließlich KI.10
  • Die Stadt New York hat neue Regeln für die vorgeschriebene Überprüfung von automatisierten Entscheidungshilfen bei der Personalauswahl erlassen, zu denen auch KI gehört.11

Da die Vorschriften von Land zu Land unterschiedlich sind, sollten sich Unternehmen von Rechtsexperten beraten lassen, um die Einhaltung der Vorschriften sicherzustellen.

Welche ethischen Leitlinien gibt es für den Einsatz von KI bei Talentauswahl?

Die Grenzen zwischen Legalität und Ethik sind nicht immer klar. „KI-Technologie kann für einen Zweck entwickelt und für einen anderen verwendet werden“, sagt Dr. Sherman. „Wir befinden uns mit der KI an einem Punkt, an dem Wissenschaftler damit begonnen haben, Atome miteinander zu kollidieren.

Was den Einsatz von KI für Talententscheidungen potenziell unethisch macht, ist das unbekannte Element. Dies ist das bereits erwähnte Black-Box-Problem. Zur Erinnerung: Verschiedene Arten von KI-Systemen verwenden Algorithmen, die entweder offensichtlich oder verborgen sind. Wenn die Algorithmen offen liegen, ist es für Menschen leicht zu erkennen, wie die KI zu ihrer Vorhersage gekommen ist. Wenn die Algorithmen verborgen sind (wie in einer Black Box), können wir nicht sehen, welche Schritte die KI unternommen hat, um zu ihrer Schlussfolgerung zu gelangen. Das bedeutet, dass die Ergebnisse irrelevant oder unfair sein können.

Relevanz und Transparenz sind Themen, die den meisten KI-bezogenen ethischen Richtlinien gemeinsam sind. Es ist wichtig, sicherzustellen, dass die von der KI verwendeten Daten für die Aufgabe relevant sind. „Sie müssen tatsächlich mit der Leistung in Verbindung stehen, ohne negative Auswirkungen auf eine Gruppe von Menschen zu haben, die die Aufgabe erfolgreich bewältigen könnten. Das fasst die grundlegenden Auswirkungen auf den Menschen zusammen“, sagt Dr. Winterberg. Es ist auch wichtig, dass der Einsatz von KI in der Dokumentation und in den Datenschutzrichtlinien transparent gemacht wird.12,13 Auch wenn Hogan Assessments keine KI einsetzen, machen sie ihre Validität und Zuverlässigkeit, ihre Logik und die Art und Weise, wie sie die Arbeitsleistung vorhersagen, transparent. Alles, was Hogan tut, kann belegt werden.

„Die Arbeit, die wir tun, hat tiefgreifende Auswirkungen auf das Leben der Menschen, und das dürfen wir nicht auf die leichte Schulter nehmen“, sagt Howell. „Unsere Kunden vertrauen uns, weil unsere Wissenschaft erstklassig ist. KI kann uns helfen, unsere Kunden besser zu bedienen, aber die Anwendungen müssen unbedingt so ethisch wie möglich entwickelt werden.“

Der ethische Aspekt beim Einsatz von KI besteht darin, öffentlich zu machen, wann und wie sie sich auf den Menschen auswirkt. „Ethische Überlegungen beim Einsatz von KI erfordern Transparenz bei der Kommunikation der Auswirkungen auf den Einzelnen“, betonte Dr. Dabdoub. „Es ist entscheidend, öffentlich zu machen, wann und wie sich KI-Entscheidungen auf Menschen auswirken. Die Betroffenen auf dem Laufenden zu halten, ist ein grundlegender Aspekt des verantwortungsvollen Einsatzes von KI.“

Wie sollten Talentspezialisten eine Bewertung auswählen?

Unternehmen sollten Personen hinzuziehen, die mit KI-Technologien vertraut sind und die potenziellen Auswirkungen auf die Beschäftigten sowie die Risiken für das Unternehmen verstehen. Sie sollten auch in der Lage sein nachzuweisen, dass der Einsatz von KI fair ist, insbesondere wenn es sich um KI in Persönlichkeitstests oder anderen Instrumenten der Personalauswahl handelt.

Mitwirkende

Hogan dankt seinen Mitarbeitern, die hier in alphabetischer Reihenfolge aufgeführt sind, für die Bereitstellung ihres Fachwissens.

Alise Dabdoub, PhD, ist die Leiterin der Produktinnovation bei Hogan. Bei Hogan hat sie einen automatisierten Prozess für die sprachübergreifende Äquivalenz von Beurteilungen entwickelt, Normen erstellt und Analysen der Auswirkungen von Normverschiebungen durchgeführt. Sie interessiert sich für quantitative Methoden, insbesondere für die Bewertung der Fairness von Tests und Aufgaben, sowie für kritische statistische Methodik. Sie promovierte in IO-Psychologie an der Universität von Oklahoma.

Allison Howell, MS, ist Vizepräsidentin für Marktinnovation bei Hogan, wo sie die Marketing- und Produktentwicklungsteams leitet. Ihre Leidenschaft ist es, die erstklassige Forschung von Hogan zu nutzen, um echte Probleme für Kunden zu lösen. Sie hat einen Master-Abschluss in Wissenschaftskommunikation von der School of Journalism and Mass Communication an der University of Wisconsin-Madison.

Weiwen Nie, PhD, ist ein Forschungsberater im Produktinnovationsteam von Hogan. Er leitet die Anwendung von Modellen für die Verarbeitung natürlicher Sprache und maschinelles Lernen zur Automatisierung von Talentanalyseprozessen. Im Jahr 2023 gehörte er zu einem Team, das einen Elite-Wettbewerb für maschinelles Lernen auf der Jahreskonferenz der Society for Industrial and Organizational Psychology gewann. Er hat einen Doktortitel in Arbeits- und Organisationspsychologie von der Virginia Tech.

Ryne Sherman, PhD, ist der Chief Science Officer bei Hogan. Er ist Experte für Persönlichkeitsbeurteilung und Datenanalyse, einschließlich der Verwendung von künstlicher Intelligenz und maschinellem Lernen bei der Persönlichkeitsbeurteilung. Dr. Sherman hat mehr als 50 wissenschaftliche Arbeiten verfasst und ist Co-Moderator des beliebten Podcasts The Science of Personality. Er promovierte in Persönlichkeits- und Sozialpsychologie an der University of California, Riverside.

Chase Winterberg, JD, PhD, ist der Direktor des Hogan Research Institute. In dieser Funktion koordiniert und kommuniziert er die Forschung, um die theoretischen Grundlagen und das Verständnis der besten Praktiken für die Implementierung der Hogan-Lösungen zur Lösung von Organisationsproblemen zu verfeinern. Er hat einen JD der University of Tulsa College of Law und einen PhD in Arbeits- und Organisationspsychologie der University of Tulsa.

Referenzen

1. Turing, A. M. (1950). Computing Machinery and Intelligence. Mind59, 433–460. https://doi.org/10.1093/mind/LIX.236.433

2. Fan, J., Sun, T., Liu, J., Zhao, T., Zhang, B., Chen, Z., Glorioso, M., & Hack, E. (2023). How Well Can an AI Chatbot Infer Personality? Examining Psychometric Properties of Machine-Inferred Personality Scores. Journal of Applied Psychology, 108(8), 1277–1299. https://doi.org/10.1037/apl0001082

3. Harlan, E., & Schnuck, O. (2021, 16 February). Objective or Biased. Bayerischer Rundfunk. https://interaktiv.br.de/ki-bewerbung/en/

4. Grensing-Pophal, L. (2022, May 24). How HR Is Using Virtual Chat and Chatbots. SHRM. https://www.shrm.org/resourcesandtools/hr-topics/technology/pages/how-hr-is-using-virtual-chat-and-chatbots.aspx

5. Rainie, L., Anderson, M., McClain, C., Vogels, E., & Gelles-Watnick, R. (2023, April 20). AI in Hiring and Evaluating Workers: What Americans Think. Pew Research Center. https://www.pewresearch.org/internet/2023/04/20/ai-in-hiring-and-evaluating-workers-what-americans-think/

6. Kim-Schmid, J., & Raveendhran, R. (2022, October 13). Where AI Can — and Can’t — Help Talent Management. Harvard Business Reviewhttps://hbr.org/2022/10/where-ai-can-and-cant-help-talent-management

7. American Psychological Association. (2017). Ethical Principles of Psychologists and Code of Conducthttps://www.apa.org/ethics/code

8. The Society for Industrial and Organizational Psychology (SIOP). (2023, January). Considerations and Recommendations for the Validation and Use of AI-Based Assessments for Employee Selection. SIOP. https://www.siop.org/Research-Publications/Items-of-Interest/ArtMID/19366/ArticleID/7327/SIOP-Releases-Recommendations-for-AI-Based-Assessments

9. High-Level Expert Group on AI (AI HLEG). (2019, 8 April). Ethics Guidelines for Trustworthy AI. European Commissionhttps://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

10. Equal Employment Opportunity Commission (1978). Uniform Guidelines on Employee Selection Procedures, Federal Register43, 38290–38315.

11. New York City Department of Consumer and Worker Protection (DCWP). (2023). Notice of Adoption of Final Rulehttps://rules.cityofnewyork.us/rule/automated-employment-decision-tools-updated/

12. Association for Talent Development (ATD). (2022, December 12). The Responsibility of TD Professionals in the Ethics of Artificial Intelligence. HRDive. https://www.hrdive.com/spons/the-responsibility-of-td-professionals-in-the-ethics-of-artificial-intellig/638136/

13. Golbin, I., & Axentehttps, M. L. (2021, June 23). 9 Ethical AI Principles for Organizations to Follow. World Economic Forum. https://www.weforum.org/agenda/2021/06/ethical-principles-for-ai/