본문 바로가기
영어공부

ETHICAL DIMENSIONS OF SEARCH RESULTS - Technology and Humanity

by 오천크루즈 2024. 1. 4.

ETHICAL DIMENSIONS OF SEARCH RESULTS - Technology and Humanity

When we ask students why they choose Google as their preferred search engine, we often receive familiar responses. Some say it's because "it works," while others admit they are unaware of alternatives. However, one recurring response stands out: "With Google, I'm certain to always get the best, unbiased search result." It's this notion of an unbiased search result that piques our interest and beckons us to delve deeper into the moral complexities behind our search engine algorithms.

As someone deeply rooted in the digital humanities, I find this blind faith in the impartiality of search results disconcerting. While it's true that we place great trust in Google's ability to provide us with relevant information, we must also acknowledge the philosophical intricacies that make true impartiality nearly impossible.

The foundation of every search query hinges on a fundamental question: "Am I seeking an isolated fact?" For instance, inquiries about the capital of France or the composition of a water molecule demand straightforward, factual responses. These are universally agreed-upon truths, and thus, we rely on search engines to deliver these facts accurately.

However, when our questions become more complex, like "Why is there an Israeli-Palestinian conflict?" we are no longer in pursuit of isolated facts but rather knowledge, a nuanced and multifaceted construct. To attain knowledge, we must consider multiple perspectives, value them differently based on our own backgrounds and beliefs, and engage in discourse. It's within these nuanced discussions that our humanity shines through, as we assess, prioritize, and form our collective understanding.

For search engines, providing this kind of knowledge is a formidable challenge. They can present facts, but they cannot replicate the intricacies of human interpretation and judgment. Real knowledge emerges when we filter and synthesize information through our interactions with friends, family, coworkers, and various sources of media. Search engines can only play a limited role in this complex process.

To illustrate the challenges of achieving truly objective search results, consider the case of Michelle Obama. When searching for images of the former First Lady, Google relies on captions and file names to deliver relevant results. This works effectively for standard searches. However, in 2009, a racist campaign deliberately manipulated these criteria, promoting an offensive image of Michelle Obama as a monkey. In response, Google manually intervened to rectify the situation, demonstrating a commitment to ethical considerations.

Fast forward to the horrific events of July 22, 2011, when Anders Behring Breivik perpetrated a terrorist attack in Norway. Recognizing his desire to control his online image, a Swedish web developer, Nikke Lindqvist, initiated a campaign urging people to flood the internet with images of dog feces labeled with Breivik's name. Astonishingly, this campaign successfully distorted search results for Breivik, yet Google refrained from intervening. The stark contrast between the two cases raises questions about Google's involvement in ethical dilemmas.

The disparity in Google's response can be attributed to the moral evaluation of individuals. Michelle Obama, being an honorable person, received swift intervention. In contrast, Breivik, considered despicable, faced no such corrective action. This highlights a critical issue: Google's role as a powerful arbiter of public perception. It demonstrates the subtle biases embedded within the technology that often go unnoticed.

The overarching message here is that behind every algorithm lies a person with their own set of personal beliefs. No amount of code can entirely erase these biases. We are all human, and it is imperative that we acknowledge and address our inherent predispositions. This is particularly crucial in an era when the humanities and technology must intertwine more closely than ever before.

As we navigate the digital landscape, it's essential to recognize that the pursuit of a perfectly unbiased search result remains a myth. The key is to embrace our humanity, fostering a deeper understanding of the ethical complexities inherent in the technology we rely on daily.

출처 : 스피쿠스

기사 제목: 검색 엔진 결과의 윤리적 차원: 기술과 인류 사이의 복잡한 관계"

이 글에서는 검색 엔진 알고리즘의 도덕적 복잡성에 대해 탐구하고 있습니다. 많은 사람들이 구글을 선호하는 이유로 "효과적이기 때문"이나 "대안을 모른다"고 대답합니다. 하지만 눈에 띄는 답변은 "구글은 항상 최고이며 편향되지 않은 검색 결과를 제공한다"는 믿음입니다. 검색 결과의 중립성에 대한 이러한 신념은 우리가 검색 엔진 알고리즘 뒤에 숨겨진 윤리적 차원을 심도 있게 고찰하도록 합니다.

디지털 인문학에 깊이 뿌리를 둔 저자는 검색 결과의 공정성에 대한 맹신이 우려스럽습니다. 우리는 구글이 관련 정보를 제공하는 데 큰 신뢰를 갖고 있지만, 진정한 공정성을 어렵게 만드는 철학적 복잡성도 인정해야 합니다.

검색 질문의 기본은 "단일 사실을 찾고 있는가?"입니다. 예를 들어, 프랑스의 수도나 물 분자의 구성과 같은 질문은 명확하고 사실적인 답변을 요구합니다. 이러한 보편적으로 인정되는 사실들에 대해 우리는 검색 엔진이 정확하게 정보를 제공하기를 기대합니다.

그러나 더 복잡한 질문, 예를 들어 "왜 이스라엘-팔레스타인 분쟁이 있는가?"와 같은 경우에는 단일 사실이 아닌 지식을 추구하게 됩니다. 지식을 얻기 위해서는 다양한 관점을 고려하고, 우리의 배경과 신념에 따라 다르게 가치를 두고, 토론에 참여해야 합니다. 이러한 미묘한 토론에서 우리의 인간성이 빛나며, 우리는 정보를 평가, 우선순위를 정하고, 우리의 집단적 이해를 형성합니다.

검색 엔진에게 이러한 지식을 제공하는 것은 큰 도전입니다. 그들은 사실을 제시할 수 있지만, 인간 해석과 판단의 복잡성을 복제할 수는 없습니다. 친구, 가족, 동료 및 다양한 미디어 소스와의 상호 작용을 통해 정보를 걸러내고 종합할 때 진정한 지식이 나타납니다. 검색 엔진은 이 복잡한 과정에서 제한된 역할만 할 수 있습니다.

진정으로 객관적인 검색 결과를 달성하는 데의 도전을 보여주기 위해, 미셸 오바마의 사례를 고려해 봅시다. 구글은 캡션과 파일 이름에 의존하여 전 미국 영부인의 이미지를 검색하는 데 효과적입니다. 그러나 2009년에 인종 차별적 캠페인이 이 기준을 고의적으로 조작하여 미셸 오바마를 원숭이로 묘사하는 모욕적인 이미지를 홍보했습니다. 이에 대응하여 구글은 윤리적 고려를 통해 수동 개입을 했습니다.

단어 학습:

  1. Digital Humanities (디지털 인문학): 디지털 기술을 사용하여 인문학 연구를 수행하는 학문 분야.
    • "The digital humanities conference explored the impact of technology on traditional literature studies."
  2. Algorithm (알고리즘): 문제를 해결하기 위한 일련의 지시사항이나 절차.
    • "Developers are constantly refining the algorithm to improve the user experience."
  3. Bias (편향): 특정한 방향으로 치우친 경향성.
    • "The study aimed to identify any bias in the media coverage of the event."
  4. Ethical Dilemma (윤리적 딜레마): 정확한 해결책이 없는 도덕적으로 복잡한 상황.
    • "The journalist faced an ethical dilemma when deciding whether to report sensitive information."
  5. Public Perception (대중 인식): 일반 대중이 특정 사안이나 사람을 어떻게 인식하는지.
    • "The campaign was designed to positively influence public perception of the new policy."

영어 표현:

  1. "Blind Faith" (맹신)
    • 설명: 'Blind faith'는 무조건적이고 비판적 사고 없이 무언가를 믿는 것을 의미합니다. 본문에서는 검색 결과의 공정성에 대한 사람들의 맹신을 지적하고 있습니다.
    • 예문: "Despite the company's success, it's important not to have blind faith in its future performance."
  2. "Pursuit of Knowledge" (지식 추구)
    • 설명: 'Pursuit of knowledge'는 새로운 정보나 이해를 얻기 위한 노력이나 여정을 가리킵니다. 본문에서는 복잡한 질문에 대한 답을 찾는 과정을 설명하는 데 사용됩니다.
    • 예문: "Her lifelong pursuit of knowledge led her to study many different fields, from physics to philosophy."