Персонализация — очень полезная и эффективная практика. Пользователям нравится индивидуальный опыт. Так они чувствуют, что компания учитывает их потребности и интересы. Однако во всем нужна мера. Если переборщить, персонализация может стать довольно пугающей и тревожной 👀.
«Дейли! Не забудь про свою корзину!» 🛒
Вы бы посчитали подобное письмо полезным или зловещим? Поскольку я знаю, что у отправившей его компании есть мои данные, включая имя, оно не кажется мне слишком странным.
«Дейли, не забудь купить кошачий корм для Манго». 🐈
Погодите-ка, откуда эта платформа знает имя моей кошки? Если я не вводила эти данные вручную, вероятно, они были украдены или за мной шпионили.
Опыт взаимодействия мгновенно трансформировался из восхитительного («О! Спасибо, что вы напомнили мне об этом!») в тревожный («Откуда вам это известно? Вы меня преследуете? Что еще вы обо мне можете знать?!»).
Персонализация кажется хорошей идеей: она позволяет адаптировать продукт под конкретного пользователя и дать ему почувствовать, что его потребности учитываются, но здесь есть тонкая грань, которую нельзя пересекать. В противном случае опыт становится пугающим и чрезмерно навязчивым.
Почему персонализация работает
Как выделиться среди тысяч других сервисов, предлагающих более или менее одинаковые товары и услуги? Дать пользователям понять, что вы обращаетесь лично к ним: Мы заметили, что вы прочитали первую книгу из этой серии, хотите прочитать следующую? Вы уже покупали шариковые ручки этого бренда, а сейчас они продаются с большой скидкой!
Согласно онлайн-опросу, проведенному компанией Epsilon, «80% респондентов заявили, что они с большей вероятностью будут иметь дело с компанией, если она предлагает персонализированный опыт, а 90% отметили, что находят персонализацию привлекательной».
Пользователи ожидают (ключевое слово!), что сайт будет содержать информацию, имеющую отношение к тем действиям, которые мы на нем совершали.
- История покупок
- История просмотров
- Имя
- Адрес
- Базовая демографическая информация (возраст, пол и т.д.).
Маркетинг, шоппинг, обучение и даже игры будут становиться все более «гиперперсонализированными». Благодаря данным и искусственному интеллекту, позволяющему управлять всей этой информацией, профиль каждого пользователя может быть наполнен фактами, способными создать уникальный опыт.
Приятно, когда Duolingo замечает, что у меня проблемы с гласными, и предлагает мне упражнения на те из них, которые даются мне хуже всего. Хотелось бы, чтобы маленькая зеленая сова запомнила, что обычно я занимаюсь в 20:00 и начинала присылать свои угрожающие напоминания только после 21:00. Я ожидаю, что Duolingo будет знать, когда я чаще всего захожу в приложение.
Вот это и называется гиперперсонализированный опыт.
Что не работает, так это неожиданные фрагменты информации. Опыт сразу же становится пугающим. Если пользователь не может точно определить, где и когда он предоставил соответствующие данные, он предполагает, что они были собраны сомнительными методами. Это одна из причин, почему люди не доверяют «постоянно слушающим» устройствам, таким как Alexa от Amazon или Siri от Apple.
Когда персонализация не работает
В 2012 году сеть магазинов Target оказалась в центре скандала, невольно запустив дискуссию о законности и этичности методов обработки данных. Аналитики Target заметили, что женщины, зарегистрировавшиеся в журнале предстоящих рождений (услуга, которая помогает сообщить семье и друзьям о предпочтительных подарках для новорожденного) склонны покупать неароматизированный лосьон — это информация, которой ожидаемо располагает ритейлер.
Неожиданностью же стало другое. Target использовал эту информацию, чтобы предположить, что покупательницы, купившие определенные товары, включая неароматизированный лосьон, беременны, после чего разослал им скидочные купоны на товары для новорожденных.
Эта практика была описана как «устрашающе точная». Однако тот факт, что она была точной, не означает, что она была этичной и нравилась клиентам.
Так купоны Target случайно раскрыли беременность девочки-подростка. Ее отец пожаловался управляющему магазина, что торговая сеть навязывает школьнице товары для беременных. Управляющий признал ошибку и извинился, но несколько дней спустя выяснилось, что девочка действительно была беременна.
🤷
Есть границы, которые нельзя переступать — никто не должен предполагать, беременна женщина или нет. Никто не должен строить догадки, какие отношения связывают вас с тем или иным человеком. Никто не должен предлагать вам товары для детей или домашних животных без вашего запроса... Что если с ними что-то случилось и вам больно от таких напоминаний?
Почему AI может сделать персонализацию еще более пугающей
Искусственный интеллект может упростить персонализацию: он способен запоминать личные данные и обращаться к ним по мере необходимости, но он не «знает», что упоминание некоторых вещей противоречит социальным нормам. У AI нет понятия о том, какие фразы могут быть пугающими. Без вмешательства человека любая информация становится легкой добычей и может быть использована против нас.
Команда платформы для генерации контента AIContentify подчеркивает: «Хотя искусственный интеллект может быть мощным инструментом персонализации, важно человеческое участие. Попытайтесь найти баланс между применением AI и эмпатией, убедитесь, что ваш персонализированный контент отражает уникальные потребности и опыт ваших пользователей».
Эмпатия. Именно она отличает нас от машин!
Мы можем обучить искусственный интеллект тому, что некоторые темы находятся под запретом, например:
- Покупка товаров интимного характера
- Покупка медицинских товаров
- Состояние здоровья
- Имена родственников, домашних животных, детей (в общем, любые имена, кроме имени пользователя)
- Семейное положение и т.д.
Решения: эмпатия, прозрачность, согласие
По мере того как технологии становятся все более гиперперсонализированными, люди, стоящие за ними, должны помнить об ожиданиях пользователей. Как я уже упоминала, я ожидаю от приложения Duolingo, что оно будет знать, какие ошибки я делаю чаще всего и в какое время я обычно захожу заниматься.
Чего я не ожидаю, так это того, что Duolingo будет анализировать мою историю просмотров и поиска в браузере, чтобы узнать, какими еще языками я интересуюсь. Я не давала согласие на доступ к этой информации!
Duolingo не делает этого... пока. В любом случае подобные манипуляции должны быть максимально прозрачными. Когда приложения или платформы используют наши данные, они должны сообщать нам, что это за данные и почему они их используют. Достаточно простого сообщения, например:
«Мы хотим знать (ваш день рождения / ваш любимый цвет / любую другую личную информацию), чтобы сделать ваш опыт покупок в магазине Target более персонализированным».
или
«Поделитесь с Duolingo, на какие паблики вы подписаны в соцсетях, чтобы мы могли убедиться, что вы изучаете наиболее релевантные слова и фразы».
Честное объяснение причин и просьба добровольно предоставить данные — самый этичный способ их получить. Так пользователи будут чувствовать себя спокойнее.
Не устану повторять, прозрачность очень важна. Немного статистики от Sprout Social:
- 85% людей утверждают, что прозрачность бизнеса повышает вероятность того, что они дадут ему второй шанс после неудачного опыта.
- 9 из 10 человек с большей вероятностью поддержат компанию во время кризиса, если в прошлом она действовала прозрачно.
- 89% людей говорят, что компания может вернуть их доверие, если признает свою ошибку и честно расскажет о шагах, которые она предпримет для решения проблемы.
Заключение
Пользователи положительно реагируют на персонализированный опыт. У них есть определенные ожидания относительно того, какие данные имеются в распоряжении платформы или приложения. Когда сервис выдает что-то слишком конкретное, например, имя питомца, люди пугаются. Почему эта компания знает имя моего кота? Когда я им это сказал? Откуда они получили эту информацию?
Действуйте прозрачно! Честно объясните, почему и как вы собираетесь использовать данные клиентов, и тогда они будут не только доверять вам, но и прощать некоторые ошибки.
Спасибо за внимание!