ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 검색 알고리즘의 성별 편향이 사용자에게 영향을 미친다는 새로운 연구 결과가 나왔습니다.
    건강과 과학/과학기술 2022. 7. 14. 08:29

    검색 알고리즘의 성별 편향이 사용자에게 영향을 미친다는 새로운 연구 결과가 나왔습니다.
    검색 결과는 사회적 불평등을 강화하는 방식으로 우리에게 영향을 줄 수 있습니다.
    날짜:
    2022년 7월 12일
    원천:
    뉴욕대학교
    요약:
    성 중립적인 인터넷 검색은 그럼에도 불구하고 남성이 지배하는 결과를 산출한다는 심리학자들의 새로운 연구를 발견했습니다. 또한 이러한 검색 결과는 성별 편견을 조장하고 고용 결정에 잠재적으로 영향을 미쳐 사용자에게 영향을 미칩니다.

    성 중립적인 인터넷 검색은 그럼에도 불구하고 남성이 지배적인 결과를 산출한다는 결과를 낳는다고 심리학 연구원 팀이 새로운 연구를 발견했습니다. 또한 이러한 검색 결과는 성별 편견을 조장하고 고용 결정에 잠재적으로 영향을 미쳐 사용자에게 영향을 미칩니다.

    PNAS( Proceedings of the National Academy of Sciences ) 저널에 실린 이 연구 는 인공 지능(AI)이 우리의 인식과 행동을 어떻게 바꿀 수 있는지 밝혀낸 최신 연구 중 하나입니다.

    "현대 AI 시스템이 사용하는 알고리즘이 차별적 출력을 생성한다는 우려가 증가하고 있습니다. 아마도 사회적 편견이 포함된 데이터에 대해 훈련되었기 때문일 것입니다."라고 뉴욕 대학교 심리학과의 박사후 연구원이자 이 논문의 주저자인 Madalina Vlasceanu가 말했습니다. . "결과적으로, 인간에 의한 사용은 기존 격차의 감소가 아니라 확산을 초래할 수 있습니다."

    "이러한 발견은 알고리즘 편향의 형성, 운영 및 완화를 조명하기 위해 인간 심리학과 계산 및 사회학적 접근을 결합한 윤리적 AI 모델을 요구합니다."라고 NYU 심리학부 및 암스테르담 대학 교수인 David Amodio가 덧붙였습니다. .

    기술 전문가들은 현대 AI 시스템에서 사용하는 알고리즘이 차별적인 출력을 생성한다고 우려해왔습니다. 아마도 사회적 편견이 뿌리내린 데이터에 대해 교육을 받았기 때문일 것입니다.

    NYU의 Arthur L. Carter Journalism Institute의 교수이자 Artificial Unintelligence: How Computers Misunderstand the World 의 저자 이자 NYU의 Arthur L. Carter Journalism Institute 교수인 Meredith Broussard는 올해 초 마크업 에 "성에 관한 1950년대의 특정 아이디어는 실제로 여전히 우리 데이터베이스 시스템에 포함되어 있습니다." 라고 말했습니다.

    Vlasceanu와 Amodio는 인간 의사 결정자가 AI를 사용하면 기존 격차가 줄어들지 않고 확산될 수 있다고 말합니다.

    이 가능성을 다루기 위해 그들은 사회 내 불평등의 정도가 알고리즘 산출물의 편향 패턴과 관련이 있는지, 그렇다면 그러한 산출물에 대한 노출이 인간의 의사 결정자들이 이러한 편향에 따라 행동하도록 영향을 미칠 수 있는지 여부를 결정하기 위한 연구를 수행했습니다. .

    첫째, 그들은 150개 이상의 국가에 대한 성 불평등 순위를 포함하는 GGGI(Global Gender Gap Index)에서 가져왔습니다. GGGI는 153개국의 경제 참여와 기회, 교육 수준, 건강과 생존, 정치적 권한에서 남녀 불평등의 정도를 나타내며, 이를 통해 국가별 사회적 수준의 성 불평등 점수를 제공합니다.

    다음으로, 검색 결과 또는 알고리즘 출력에서 ​​가능한 젠더 편향을 평가하기 위해 "사람", "학생" 또는 "인간"과 같이 남성 또는 여성에게 동일한 확률로 언급되어야 하는 단어가 더 자주 사용되는지 조사했습니다. 남자로 추정. 여기에서 그들은 37개국에 걸쳐 한 국가 내에서 "사람"에 대한 Google 이미지 검색을 수행했습니다. 결과에 따르면 이러한 검색에서 생성된 남성 이미지의 비율은 성별 불평등이 심한 국가에서 더 높았으며, 알고리즘적 성별 편향이 사회적 성별 불평등을 추적한다는 것을 보여줍니다.

    연구원들은 3개월 후 첫 번째 연구의 31개국을 포함하여 52개국의 표본으로 연구를 반복했습니다. 결과는 초기 연구의 결과와 일치했으며, 사회 수준의 성별 격차가 알고리즘 출력(즉, 인터넷 검색)에 반영되었음을 재확인했습니다.

    Vlasceanu와 Amodio는 그런 알고리즘 출력(검색 엔진 결과)에 대한 노출이 기존의 사회적 불평등과 일치하는 방식으로 사람들의 인식과 결정을 형성할 수 있는지 여부를 결정하려고 했습니다.

    그렇게 하기 위해 그들은 거의 400명의 미국 여성 및 남성 참가자를 포함하는 일련의 실험을 수행했습니다.

    이 실험에서 참가자들은 chandler, draper, peruker 및 lapidary라는 익숙하지 않은 네 가지 직업의 Google 이미지 검색 결과를 보고 있다고 들었습니다. 각 직업 이미지 세트의 성별 구성은 글로벌 성 불평등 점수가 높은 국가(헝가리 또는 터키의 경우 남성 90%에서 여성 10%)와 위의 52개국 연구에서 낮은 글로벌 성 불평등 점수(아이슬란드 또는 핀란드의 경우 남성 50% 대 여성 50%). 이를 통해 연구자들은 여러 국가의 인터넷 검색 결과를 모방할 수 있었습니다.

    검색 결과를 보기 전에 참가자는 각 직업에 대한 원형 판단(예: "누가 peruker, 남자 또는 여자일 가능성이 더 높습니까?")을 제공했으며, 이는 자신의 인식에 대한 기준 평가 역할을 했습니다. 여기에서 참가자는 여성과 남성 모두 이 직업의 구성원을 여성보다 남성일 가능성이 더 높다고 판단했습니다.

    그러나 이미지 검색 결과를 본 후 동일한 질문 을 받았을 때 낮은 불평등 조건의 참가자 는 기준 평가와 비교하여 남성 편향된 프로토타입을 뒤집었 습니다. 대조적으로, 높은 불평등 조건에 있는 사람들은 남성 편향된 인식을 유지하여 이러한 원형에 대한 인식을 강화했습니다.

    그런 다음 연구자들은 인터넷 검색으로 인한 편견이 고용 결정에 잠재적으로 어떻게 영향을 미칠 수 있는지 평가했습니다. 그렇게 하기 위해 그들은 참가자들에게 각 직업에서 남성 또는 여성이 고용될 가능성("어떤 유형의 사람이 퍼커로 고용될 가능성이 가장 높습니까?")을 판단하고 두 구직자의 이미지를 제시할 때 판단하도록 요청했습니다. (여성 1명과 남성 1명) 해당 직업의 직위를 위해, 자신의 고용 선택을 하기 위해(예: "이 지원자 중 한 명을 퍼커로 선택하십시오.").

    다른 실험 결과와 일치하게, 불평등이 낮은 조건에서 이미지에 노출되면 직업 내에서 남성 대 여성 고용 경향에 대한 더 평등주의적인 판단이 나타났고, 높은 불평등 조건에서 이미지 세트에 노출된 것에 비해 여성 구직자를 선택할 가능성이 더 높아졌습니다. 불평등 조건.

    Vlasceanu와 Amodio는 "이러한 결과는 사회, AI, 사용자 사이의 편견 전파 주기를 시사합니다."라고 덧붙이며 "이번 연구 결과는 인터넷 검색 알고리즘에서 사회적 수준의 불평등이 분명하며 이러한 알고리즘 출력에 노출되면 인간이 사용자는 사회적 불평등을 강화하는 방식으로 생각하고 잠재적으로 행동할 수 있습니다."

Designed by Tistory.