Existem muitas teorias científicas sobre como prever o comportamento criminoso futuro: Gênero, baixa freqüência cardíaca em repouso, e o nome Ernest (daí o clássico cinematográfico Ernest vai para a prisão). Mas um polêmico papel da China Shanghai Jiao Tong University afirma que os computadores podem dizer se seu filho está destinado a uma vida de crime simplesmente olhando para o rosto dele. E já que esse rosto é ditado pelo seu, faria sentido levar isso para o lado pessoal.
De acordo com os pesquisadores Xiaolin Wu e Xi Zhang, uma vez que os algoritmos podem corresponder e exceder as capacidades de reconhecimento facial humano, eles também devem ser capazes de comparar e contrastar os rostos de criminosos e não criminosos para determinar quais canecas receberão fotos de identificação. Se isso parece uma forma indireta de culpar os senhores do robô pelo perfil racial, eles observam que os conjuntos de dados foram controlados por raça, sexo, idade e expressões faciais. Claro, todos os sujeitos testados eram homens chineses. Então é isso.

Universidade Jiao Tong de Xangai
Xiaolin e Xi usaram as fotos de identidade padrão de 1.856 homens chineses com idades entre 18 e 55 anos - 1126 não criminosos e 730 criminosos, 235 dos quais foram condenados por crimes violentos - para testar se algum de seus 4 classificadores poderia inferir criminalidade. Os classificadores (regressão logística, KNN, SVM, CNN) cada um usava um método diferente de análise facial e eram geralmente precisos na previsão do comportamento criminoso. O melhor classificador, conhecido como Rede Neural Convolucional, foi quase 90 por cento preciso. a variação entre os rostos de criminosos é significativamente maior do que entre os rostos não criminosos ”, o par concluído.

Então, quais são essas variações a serem observadas? “Algumas características estruturais discriminatórias para prever a criminalidade, como a curvatura dos lábios, a distância do canto interno do olho e o chamado ângulo nariz-boca”, escreveram eles. Ainda, Hacker News, Placa-mãe, quem não acredita em Blade Runner são tão céticos quanto você pode ser. Por um lado, o aprendizado de máquina pode detectar preconceitos humanos e agir de acordo com eles, e ninguém vai traçar um perfil injusto de seu filho se você tiver algo a dizer sobre isso. Nem mesmo essa segunda vinda do Robocop.
[H / T] Placa-mãe
