Por Luísa Bell, do Portal Mescla
Ocorreu no último sábado (9/3), na Unisinos Porto Alegre, o encontro local do Open Data Day 2024 (ODD), mais conhecido no Brasil como o Dia dos Dados Abertos. Com a presença de pesquisadores, representantes de órgãos públicos, sociedade civil, empresas privadas, além de alunos e professores de universidades, o evento debateu os impactos da Inteligência Artificial (IA) na cidadania digital.
O ODD é promovido pela Open Knowledge Foundation (OKF), organização sem fins lucrativos que promove conhecimento livre, fundada em 2004, em Cambridge, na Inglaterra. No Brasil, o evento é produzido pela rede de Embaixadores de Inovação Cívica da Open Knowledge Brasil (OKBR), em parceria com Afonte Jornalismo de Dados.
Painéis variados
A organização do evento em Porto Alegre foi realizada pela professora do curso de Jornalismo da Unisinos Taís Seibt e pela jornalista egressa da Unisinos Juliana Coin. Ambas são parceiras da OKBR: Taís é associada, e Juliana, embaixadora de inovação cívica.
Envolvendo áreas como segurança, saúde mental, mudanças climáticas e comunicação, os palestrantes debateram sobre os limites legais e éticos do uso da Inteligência Artificial em produtos e serviços públicos e privados. Participaram Antonio Padilha, secretário-executivo do Programa RS Seguro, da Secretaria de Segurança Pública do Governo Estadual; Mellanie Fontes-Dutra, coordenadora do curso de Biomedicina da Unisinos; Dirceu Corrêa Jr, CEO da Postmetrica; Juliana Scherer, professora da Escola de Saúde da Unisinos; Sofia Marshallowitz, cientista de dados e pesquisadora no âmbito de comparação de decisões humanas e realizadas por máquinas; e Wesllei Heckler, cientista de dados na CWI Software.
Dirceu Corrêa Jr
Mestre em administração pela Universidade de Poitiers (França) e em gestão de negócios pela Unisinos, na qual também é professor, Dirceu Corrêa Jr é CEO da empresa Postmetrica. Ele trabalha com big data e análise comportamental de consumo desde 2009. Dirceu abriu o debate discutindo sobre a “Economia dos Dados e a Renda Tecnológica Compensatória (RTC)”.
O administrador citou como exemplo a CX Monetization Analytics, plataforma oferecida pela sua empresa que identifica oportunidades de monetização através da experiência do consumidor. A ferramenta utiliza de Inteligência Artificial para interpretar dados de conversas com clientes por texto, áudio e imagens a partir da métrica Spontaneous NPS (sNPS).
Wesllei Heckler
O segundo painelista foi Wesllei Heckler, cientista de dados na CWI Software, onde desenvolve soluções de dados com foco em Sistemas de Recomendação, Machine Learning e Inteligência Artificial Generativa. Graduado em Ciência da Computação pela Universidade Feevale, ele é mestre em Computação Aplicada. Atualmente, cursa doutorado no Programa de Pós-Graduação em Computação Aplicada da Unisinos. Wesllei aproveitou o espaço para falar da sua pesquisa de mestrado sobre IA na área de saúde mental.
O estudo consiste em um modelo que consegue coletar e interpretar dados de dispositivos móveis, como smartphones e smart watches. O protótipo Thoth, criado por ele, pode servir como ferramenta para alertar sobre a possibilidade de situações de risco que podem ser cometidas por pacientes, como ações suicidas, por exemplo. De acordo com Wesllei, são cometidos mais de 700 mil suicídios por dia no mundo todo.
A coleta de dados foi realizada através do monitoramento no aplicativo de três pacientes. “É muito importante realizar esse acompanhamento, tanto pelo fato de poder gerar gatilhos nas pessoas que estão usando a ferramenta quanto para gantantir a segurança dos dados”, destacou o doutorando.
Sofia Marshallowitz
Já a cientista de dados Sofia Marshallowitz abordou sobre as questões éticas relacionadas às aplicações de Inteligência Artificial em tecnologias. Ela é mestranda em Ciência da Computação pela Universidade Federal do Rio Grande do Sul e pesquisadora no âmbito de comparação de decisões humanas e realizadas por máquinas.
Sofia abriu a sua fala trazendo o tópico “O que é ético na IA? O que fazemos é correto?”. Mesmo sendo das ciências exatas, ela trouxe muito do humano para sua fala. Para Sofia, a legislação sobre o assunto precisa ser mais acessível, pois o debate deveria ser estendido para o público fora do ambiente acadêmico de uma forma mais informativa e simplificada. “Eu penso muito na falta de antologia para discutir o que é IA como um todo. Como eu vou discutir sobre ética, moral e legislação se eu nem sei que isso existe?”, apontou.
De acordo com Sofia, estamos em um mundo muito diverso, o que implica em várias versões do que é moral e ético, já que vai depender do contexto de cada região. “Nós precisamos entender que hoje vivemos em mundo extremamente conectado. Como a gente insere isso na discussão sobre IA? Ética é valiosa, mas ela vai ter distinções de percepção”, ressaltou.
A cientista de dados reforçou que não estamos discutindo o básico. Segundo Sofia, a discussão sobre moral e ética não se trata só de IA, mas sim de uma questão que a gente vive, e que é muito anterior a ela.
Juliana Scherer
A quarta palestrante foi Juliana Scherer, professora dos cursos de graduação em Medicina e Biomedicina, além do Programa de Pós-graduação em Saúde Coletiva da Unisinos, em que trabalha com pesquisa sobre epidemiologias e análise de dados na área da saúde. Biomédica, possui especialização em Redes de Assistência à Saúde e doutorado em Psiquiatria e Ciências do Comportamento.
Juliana tratou sobre neurociência, e como as questões de saúde mental podem estar relacionadas à pandemia e às catástrofes climáticas registradas nos últimos anos. A biomédica apresentou dados recentes da Organização Mundial da Saúde (OMS) que apontam um aumento de 25% na prevalência mundial de transtornos mentais após a pandemia.
Sobre o uso de IA, Juliana diz que a tecnologia pode ser bem-vinda, principalmente através de modelos de predição voltados para a saúde, como o apresentado por Wesllei. Segundo ela, essas ferramentas podem ajudar a identificar padrões, a visualizar e até a prever quando grandes eventos climáticos podem estar diminuindo ou se seguirão a crescer, além da duração. “Assim, podemos estar mais preparados para quando eles de fato ocorrerem. Acho que o pior não é não saber, mas sim estar sabendo e não estar preparado para aquilo”, ponderou.
Mellanie Fontes-Dutra
Dando sequência à fala da Juliana, a biomédica Mellanie Fontes-Dutra também comentou sobre como a IA pode ajudar a predizer eventos climáticos na área do meio-ambiente, e como questões de saúde mental podem estar relacionadas a elas. Coordenadora do curso de Biomedicina da Unisinos, Mellanie é mestra e doutora em neurociências, com pós-doutorado em bioquímica pela UFRGS, e em andamento em virologia pela Feevale.
Segundo Mellanie, existe um nome para isso: “ecoansiedade”. Se refere à quando uma pessoa se sente impotente perante a catástrofes climáticas e pandemias. A biomédica aponta que há, sim, como fazer algo a respeito. “A gente precisa trabalhar e reconhecer que tem coisas que talvez a gente não consiga evitar completamente, mas que a mitigação é um papel social e de responsabilidade dos gestores e da sociedade também. Por isso, precisamos sim de políticas públicas”, destacou.
Mellani ressaltou que a Inteligência Artificial pode ajudar nas descobertas em relação aos agentes infecciosos: “Os aprendizados de máquina, reconhecimento de padrões e métodos de plastilização podem nos ajudar muito a entender onde possíveis eventos de zoonoses ou dispersão geográfica de vetores que carregam doenças podem acometer países que hoje não tem tantas doenças”.
Ao encerrar a sua fala, a biomédica reforçou o quão importante é trazer as humanidades e outras áreas de conhecimento para esse debate, além de envolver as vulnerabilidades sociais nessas conversas. “Elas são fatores determinantes para a criação de soluções”, disse.
Antonio Padilha
Quem encerrou os painéis foi o secretário-executivo do Programa RS Seguro, ligado à Secretaria de Segurança Pública do Governo Estadual, Antonio Padilha. Ele é graduado em Ciências Jurídicas e Sociais pela PUCRS e é mestre em Direito pela Unisinos.
Atuando como delegado de Polícia desde 1999, está desde 2019 à frente do Programa RS Seguro, e coordenou o desenvolvimento do Sistema de Gestão Estatística de Segurança Pública – GESeg, em parceria com o Centro de Tecnologia da Informação e Comunicação do Estado do Rio Grande do Sul (Procergs).
Padilha falou sobre a complexidade da violência e da criminalidade do Estado, e focou a sua apresentação no processo de criação e a implementação do RS Seguro, lançado em fevereiro de 2019. O programa trabalha a integração, a inteligência e o investimento qualificado, e atua em quatro eixos: combate ao crime; políticas sociais, preventivas e transversais; qualificação do atendimento ao cidadão e valorização profissional; e sistema prisional.
Padilha mostrou também o site do programa, que ainda não está disponível para o público, e como o registro de ocorrências ajudam no monitoramento e mapeamento, por exemplo, de roubos de veículo e a pedestres. “Violência e criminalidade, além da segurança, são também uma questão social e econômica”, sublinhou.
Oficina de ChatGPT
A parte final do encontro porto-alegrense do Open Data Day foi voltada para a oficina de ChatGPT, ministrada por Nelci Gomes Lima. Ela é pós-graduada em Desenvolvimento de Aplicações e Games para Dispositivos Móveis pelo Instituto Federal da Bahia (IFBA) e em Ciências de Dados e Big Data pela Universidade Federal da Bahia (UFBA).
Nelci, que atualmente faz mestrado em Engenharia de Sistemas e Produtos no IFBA, é consultora de dados na ThoughtWorks, e atua em projetos que encorajam mulheres na área de Tecnologia e Inovação. A mestranda falou sobre questões de ética que envolvem o uso dos assistentes virtuais e chat bots, como o ChatGPT, além de falar das funções, defeitos e riscos.
Nelci também deu dicas de como ter melhor proveito das ferramentas, e explicou que quanto mais a pessoa usa o chat, mais parecido ele vai ficar com ela. “É preciso saber o que você quer, saber dar instruções mais precisas para os propenters, que são os textos, ou seja, você precisa saber alimentar os textos com conteúdo verdadeiro para obter mais respostas”, afirmou.
A pesquisadora afirmou que gosta da ideia de usar a tecnologia como uma solução para problemas. Ela ainda comentou que acha essas plataformas muito interessantes para os estudantes como uma ferramenta de pesquisa e de retroalimentação. “É preciso avisar o ChatGPT quando ele está errado, para que a ferramenta se torne melhor, pois o humano sempre vai ser preciso”, destacou.