Pada tahun 2016, Microsoft merilis chatbot bernama Tay di Twitter sebagai percobaan dalam pembelajaran percakapan. Percobaan tersebut mengalami masalah ketika pengguna Twitter mulai membuat tweet pada bot dengan komentar misoginis (membenci wanita) dan rasis, akhirnya Tay mulai mengulangi sentimen itu kembali ke pengguna.
Baru-baru ini, Google merilis fitur teks prediktif dalam Gmail di mana algoritme membuat asumsi bias yang mengacu pada perawat dengan kata ganti wanita. Google akhirnya menghentikan fitur dari menyarankan kata ganti.

Firth-Butterfield juga menunjukkan fakta bahwa asisten virtual yang paling populer dari Apple, Amazon, dan Google memiliki suara wanita yang dirancang untuk melayani dan menerima pesanan.
“Mereplikasi fakta bahwa orang-orang yang menerima panggilan di pusat panggilan cenderung wanita, tetapi kita bisa menciptakan dunia yang berbeda dengan AI jika kita memiliki tim yang lebih beragam yang menciptakan itu,” katanya.
Tidak semua manfaat keanekaragaman segera terlihat, tetapi laporan mengatakan bahwa mengubah rasio akan membutuhkan tindakan proaktif.