Głos jako element tożsamości w hybrydycznej rzeczywistości relacji człowiek – asystent głosowy

Słowa kluczowe: asystent głosowy, głos, hybrydyczna rzeczywistość, komunikacja, sztuczna inteligencja, tożsamość

Abstrakt

Artykuł podejmuje problem asystentów głosowych, których algorytmy syntezy mowy imitują głos naturalny. Liczne badania dowodzą, że użytkownicy tych urządzeń oraz aplikacji traktują je jako istoty społeczne. Takie zachowanie jest efektem hybrydycznego charakteru rzeczywistości komunikacyjnej, w której cechy głosu naturalnego wywołujące określone reakcje są transponowane na głos przetworzony technologicznie. Diagnoza tej problematyki obejmująca aspekty specyfiki mowy syntetycznej oraz modelowania walorów emocjonalnych w głosie generowanym pozwala wnioskować, że człowiek intuicyjnie nadaje głosowi asystenta te cechy, które naturalny głos sygnalizuje w kontaktach międzyludzkich. Ponieważ ze społecznego punktu widzenia głos jest nośnikiem tożsamości mówiącego (czyli cech fizycznych, psychicznych i społecznych), artykuł wskazuje, dlaczego możliwość klonowania głosu burzy kulturowy porządek postrzegania głosu jako elementu tożsamości konkretnej osoby oraz dlaczego zakłóca świadomość odrębności własnego i cudzego głosu.

Biogram autora

Grażyna Stachyra, Uniwersytet Marii Curie-Skłodowskiej w Lublinie

Dr hab., profesor zwyczajny UMCS w Katedrze Komunikacji Medialnej Instytutu Nauk o Komunikacji Społecznej i Mediach. Bada nowe formy komunikacji audialnej i emisję głosu w mediach audiowizualnych. Autorka m.in. The Radio Plays Games („European Journal of Communication”, Vol. 27(3)2012); Radio in the workplace. A liminal medium between work and leisure („Media Culture & Society”, Vol. 37(2)2015).

Bibliografia

Aeschlimann, S., Bleiker, M., Wechner, M. i Gampe, A. (2020). Commu-nicative and social consequences of interactions with voice assistants. Computers in Human Behavior, 112, Article 106466. DOI: 10.1016/j.chb.2020.106466

Archer, M.S. (2021). Friendship Between Human Beings and AI Robots? W: J. von Braun i in. (red.), Robotics, AI, and Humanity. Cham: Spring-er, 177–191. DOI: 10.1007/978-3-030-54173-6_16177-188.

Aylett, M.P., Sutton, S.J. i Vazquez-Alvarez, Y. (2019). The Right Kind of Unnatural: Designing a Robot Voice. W: Proceedings of the 1st Inter-national Conference on Conversational User Interfaces (Dublin, Ire-land) (CUI ’19). Association for Computing Machinery, New York, NY, USA, Article 25, 2 pages. DOI: 10.1145/3342775.3342806

Baker, L.R. (2000). Persons and bodies: A constitution view. Cambridge: Cambridge UP.

Cabral, J.P., Cowan, B.R., Zibrek, K. i McDonnell, R. (2017). The Infuence of Synthetic Voice on the Evaluation of a Virtual Character. INTER-SPEECH, 229–233. DOI: 10.21437/Interspeech.2017-325

Cambre, J., iChinmay, K. (2019). One Voice Fits All?: Social Implications and Research Challenges of Designing Voices for Smart Devices. Pro-ceedings of the ACM on Human-Computer InteractionVolume 3Issue CSCW November 2019, 1–19. DOI: 10.1145/3359325

Chan, S.W.T., Gunasekaran, T.S., Pai, Y.S., Zhang, H. i Nanayakkara, S. (2021). Kin Voices: Using Voices of Friends and Family in Voice Inter-faces. Proc. ACM Hum.-Comput. Interact. 5, CSCW2, Article 446 (Oc-tober 2021), 25 pages. DOI: 10.1145/3479590

Chin, C. i Robison, M. (2020). How AI bots and voice assistants reinforce gender bias, November 23, 2020. Pozyskano z: https://www.brookings.edu/research/how-ai-bots-and-voice-assistants-reinforce-gender-bias (dostęp: 28.01.2023).

Coeckelbergh, M. (2011). Humans, animals, and robots: A phenomenological approach to human-robot relations. International Journal of Social Robotics, nr 3(2), 197–204. DOI: 10.1007/s12369-010-0075-6).

Devillers, L. (2021). Human–Robot Interactions and Affective Computing: The Ethical Implications. W: J. von Braun i in. (red.), Robotics, AI, and Humanity. Cham: Springer, 205–211. DOI: 10.1007/978-3-030-54173-6_16177-188.

Dolar, M. (2006). Voice and Nothing More. MIT Press. Kindle Edition.

Donati, P. (2021). Impact of AI/Robotics on Human Relations: Co-evolution Through Hybridisation. W: J. von Braun i in. (red.), Ro-botics, AI, and Humanity. Cham: Springer, 213–227. DOI: 10.1007/978-3-030-54173-6_16177-188.

Edwards, C., Edwards, A., Stoll, B., Lin, X. i Massey, N. (2019). Evalua-tions of an artificial intelligence instructor’s voice: Social Identity The-ory in human-robot interactions. Computers in Human Behavior, 90, 357–362.

Gabriel, M. (2021). Could a Robot Be Conscious? Some Lessons from Philosophy. W: P. Donati (red.), Impact of AI/robotics on human rela-tions: co-evolution through hybridisation. Robotics, AI, and Humanity. Cham: Springer, 213–227.

Goffman, E. (1959). The Presentation of Self in Everyday Life. New York: Anchor Books.

Guzman, A.L. i Lewis, S.C. (2019). Artificial intelligence and communica-tion: A human-machine communication research agenda. New Media Society, nr 22 (1), 70–86. DOI: 10.1177/1461444819858691

Juniper Research. (2018). Pozyskano z: https://www.juniperresearch.com/press/digital-voice-assistants-in-use-to-8-million-2023 (dostęp: 17.02.2023).

Kreiman, J., Vanlancker-Sidtis, D. i Gerratt, B.R. (2003). Defining and measuring voice quality. W: Proceedings of the Conference on Voice Quality: Functions, Analysis, and Synthesis. ISCA, 115–120. Pozyskano z: https://www.isca-speech.org/archive_open/voqual03/voq3_115.html (dostęp: 17.12.2019).

Lipszyc, A. (2022). The Shrimp-Mirror-Stitch, or Voice in Psychoanalysis, Eidos. A Journal for Philosophy of Culture, nr 2(6), 37–50, DOI: 10.14394/eidos.jpc.2022.0014

McCarthy, J. (2007). What is Artificial Intelligence? Pozyskano z: http://www-formal.stanford.edu/jmc/ (dostęp: 25.01.2023).

McTear, M.F., Callejas, Z. i Griol, D. (2016). The Conversational Interface: Talking to Smart Devices. Springer, Switzerland.

Nass, C. (2005). Machine voices. Pozyskano z: http://www.pbs.org/speak/ahead/technology/voiceinterface/# (dostęp: 09.02.2023).

Nass, C. i Brave, S. (2005). Wired for speech: How voice activates and advances the human-computer relationship. Boston Review.

Nass, C. i Lee K.M. (2001). Does computer-synthesized speech manifest personality? Experimental tests of recognition, similarity-attraction, and consistencyattraction. Journal of Experimental Psychology Ap-plied, nr 7(3), 171–181.

Nass, C. i Moon, Y. (2000). Machines and mindlessness: social responses to computers. Journal of Social Issues, nr 56(1), 81–103. DOI:10.1111/0022-4537.00153

Nass, C., Steuer, J. i Tauber, E.R. (1994). Computers Are Social Actors. W: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (Boston, Massachusetts, USA) (CHI ’94). Association for Computing Machinery, New York, NY, USA, 72–78. DOI: 10.1145/191666.191703

Ogden, T. (1998). A Question of Voice in Poetry and Psychoanalysis. The Psychoanalytic Quarterly, nr 67, 426–448. DOI: 10.1080/00332828.1998.12006050.

Ostrowski, A., Fu, J., Zygouras, V., Park, H. i Breazeal, C. (2022). Speed Dating with Voice User Interfaces: Understanding How Families In-teract and Perceive Voice User Interfaces in a Group Setting. Frontiers in Robotics and AI. 10.3389/frobt.2021.730992. 8.

Pitardi, V. i Marriott, H.R. (2021). Alexa, she’s not human but… Unveiling the drivers of consumers’ trust in voice‐based artificial intelligence. Psychology & Marketing, nr 38(4), 626–642.

Reeves, B. i Nass, CI. (1996). The Media Equation. Stanford, CA: CSLI Publications.

Schröder, W.M. (2021). Robots and Rights: Reviewing Recent Positions, in Legal Philosophy and Ethics. W: J. von Braun i in. (red.), Robotics, AI, and Humanity. Cham: Springer, 191–202. DOI: 10.1007/978-3-030-54173-6_16177-188.

Seaborn, K., Miyake, N.P., Pennefather, P. i Otake-Matsuura, M. (2021). Voice in human–agent interaction: a survey. ACM Computing Surveys (CSUR), 54(4), 1–43.

Smith, S.V. (2015). An NPR reporter raced a machine to write a news story. Who won? NPR, 20 May. Pozyskano z: https://www.npr.org/sections/money/2015/05/20/406484294/an-nprreporter-raced-a-machine-to-write-a-news-story-who-won (dostęp: 30.01.2023).

Sutton, SJ., Foulkes, P., Kirk, D. i Lawson, S. (2019). Voice as a Design Material: Sociophonetic Inspired Design Strategies in Hu-man-Computer Interaction. W: Proceedings of the 2019 CHI Confer-ence on Human Factors in Computing Systems (Glasgow, Scotland Uk) (CHI ’19). Association for Computing Machinery, New York, NY, USA, 1–14. DOI: 10.1145/3290605.3300833

Tarnóczy, T.H. (1949). The Speaking Machine of Wolfgang von Kempelen. The Journal of the Acoustical Society of America, nr 21(461), https://asa.scitation.org/doi/abs/10.1121/1.1917078, 27.01.2023.

Wagner, K. i Schramm-Klein, H. (2019). Alexa, Are You Human? Investi-gating Anthropomorphism of Digital Voice Assistants – A Qualitative Approach. ICIS Proceedings. 7. Pozyskano z: https://aisel.aisnet.org/icis2019/human_computer_interact/human_computer_interact/7, (dostęp: 28.01.2023).

Wang, Ch., Chen, S., Wu, Y., Zhang, Z., Zhou, Shujie, L., Chen, Z., Liu, Y., Wang, H., Li, J., He, L, Zhao, S. i Wei, F. (2023). VALL-E Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers. arXiv:2301.02111 [cs.CL].

Zellou, G., Cohn, M. i Ferenc S.B. (2021). Age-and gender-related differ-ences in speech alignment toward humans and voice-AI. Frontiers in Communication, vol. 5. DOI: 10.3389/fcomm.2020.600361.

Opublikowane
2023-08-10
Jak cytować
[1]
Stachyra, G. 2023. Głos jako element tożsamości w hybrydycznej rzeczywistości relacji człowiek – asystent głosowy. Perspektywy Kultury. 42, 3 (sie. 2023), 179-190. DOI:https://doi.org/10.35765/pk.2023.4203.14.
Dział
Kultura (w) rzeczywistości hybrydalnej