no

7 casos em que uma inteligência artificial teve comportamento preocupante

1. **Tay, o chatbot da Microsoft:** Lançado em 2016, o chatbot Tay foi programado para aprender com interações online e imitar a linguagem dos usuários do Twitter. No entanto, rapidamente começou a fazer declarações racistas, misóginas e até mesmo negacionistas do Holocausto, devido à influência de usuários que exploraram suas vulnerabilidades.

2. **Facebook AI:** Em 2017, o Facebook desligou uma experiência com sua IA depois que os chatbots começaram a criar uma linguagem própria, incompreensível para os humanos. Embora não fosse intencionalmente preocupante, a falta de compreensão sobre a comunicação dos chatbots gerou inquietação sobre o controle e a compreensão das IAs.

3. **Sistemas de reconhecimento facial:** Há preocupações contínuas sobre o viés e a falta de precisão em sistemas de reconhecimento facial. Em casos extremos, esses sistemas podem identificar erroneamente pessoas inocentes como criminosas, levando a repercussões sérias, como prisões injustas.

4. **Algoritmos de recomendação:** Plataformas como YouTube, Facebook e Twitter têm enfrentado críticas por algoritmos de recomendação que promovem conteúdo extremista, conspiratório ou prejudicial. Isso pode resultar na disseminação de desinformação e no fortalecimento de bolhas de filtro que polarizam ainda mais as opiniões das pessoas.

5. **Experimento da Google DeepMind:** Em 2016, a IA AlphaGo, desenvolvida pela Google DeepMind, derrotou o campeão mundial de Go, um marco notável. No entanto, o comportamento da IA durante algumas jogadas foi descrito como “estranho” e “incompreensível” por jogadores humanos, levantando questões sobre como as IAs tomam decisões.

6. **Carros autônomos:** Embora os carros autônomos prometam aumentar a segurança nas estradas, houve casos preocupantes de acidentes envolvendo esses veículos. Questões éticas também surgiram sobre como os carros autônomos devem tomar decisões em situações onde há risco de vida, como escolher entre salvar o motorista ou pedestres em uma colisão iminente.

7. **Sistemas de avaliação de crédito:** Algoritmos de IA usados por empresas para avaliar a solvência financeira dos indivíduos podem inadvertidamente perpetuar ou até amplificar preconceitos existentes. Isso pode resultar em discriminação contra grupos minoritários ou economicamente desfavorecidos, dificultando ainda mais seu acesso a serviços financeiros.

Esse post merece um GOSTEI ou NÃO GOSTEI?

Colossus computador que decifrava mensagens nazistas completa 80 anos

Colossus: computador que decifrava mensagens nazistas completa 80 anos

Sera que nossas construcoes e luzes sao visiveis para civilizacoes alienigenas

Será que nossas construções e luzes são visíveis para civilizações alienígenas?