.amp-content .article p,body{font-family:utopiaregular,serif}.amp-title-bar h1,.footer-logo h1{text-indent:-5000em;visibility:hidden}a,abbr,acronym,address,applet,b,big,blockquote,body,caption,center,cite,code,dd,del,dfn,div,dl,dt,em,fieldset,font,form,h1,h2,h3,h4,h5,h6,html,i,iframe,img,ins,kbd,label,legend,li,object,ol,p,pre,q,s,samp,small,span,strike,strong,sub,sup,table,tbody,td,tfoot,th,thead,tr,tt,u,ul,var{margin:0;padding:0;border:0;outline:0;font-size:100%;vertical-align:baseline;background:0 0}h3{padding:0 16px;font-size:1.35rem}ol,ul{list-style:none}ul{padding:2px 16px;line-height:1.2;margin-bottom:10px}blockquote,q{quotes:none}blockquote:after,blockquote:before,q:after,q:before{content:"";content:none}:focus{outline:0}ins{text-decoration:none}del{text-decoration:line-through}table{border-collapse:collapse;border-spacing:0}body{font-size:16px;line-height:1.42857;color:#191919;background-color:#fff}.amp-title-bar{background:#fff;border-bottom:1px solid #f1f1f1;padding:9px 0}.amp-title-bar div{position:relative;display:flex;align-items:center;justify-content:center;color:#fff;max-width:600px;margin:0 auto}.amp-title-bar a{color:#fff;text-decoration:none;width:200px;height:25px}.amp-title-bar h1{overflow:hidden;position:absolute}.amp-title-bar button{border-radius:4px;padding:10px;border:1px solid transparent;background-color:#fafafa;border-color:hsla(0,0%,85%,.5);margin-left:15px;position:absolute;color:#9e9e9e;cursor:pointer;outline:0;left:0}.amp-title-bar button i{width:20px;background:0 0;position:relative;display:inline-block;box-sizing:content-box}.amp-title-bar i span{display:block;width:20px;background:#1a1a1a;height:3px;border-radius:2px}.amp-title-bar i span:not(:first-child){margin-top:3px}#sidebar{background-color:#f7f7f7;border-color:hsla(0,0%,97%,.5);border-width:1px 0 0;width:270px;padding:0 15px 15px}.amp-sidebar-btn-newsletter{padding:12px;text-align:center;vertical-align:middle;color:#fff;background-color:#4c759c;border-color:#4c759c;margin-bottom:20px;border-radius:4px}.amp-sidebar-container{border-bottom:1px solid #d8d8d8;border-color:hsla(0,0%,85%,.5);padding-top:20px;padding-bottom:15px}.amp-sidebar-container ul li a{display:block;text-decoration:none;font-weight:700}.amp-sidebar-container ul li a:not(.amp-sidebar-btn-newsletter){font-size:16px;color:#666;padding:8px}span.amp-image-legend{display:block;color:#757575;font-size:12px;font-weight:400;line-height:1.67;letter-spacing:-.1px;padding:5px 16px 0;text-align:left}.amp-content{color:#212121;font-size:18px;line-height:1.67;padding:0;overflow-wrap:break-word;word-wrap:break-word;font-weight:400}.amp-content,.amp-wp-title-bar div{max-width:600px;margin:0 auto}.amp-featured-container,.amp-video-container{text-align:center;margin-left:-10px;margin-right:-10px}.amp-featured-container img{z-index:-1}.amp-meta{margin-top:16px;padding:0 16px}ul.amp-wp-meta>li{display:block;max-width:100%}ul.amp-wp-meta li{list-style:none;display:inline-block;margin:0;line-height:24px;overflow:hidden;text-overflow:ellipsis}.amp-metas{margin-top:10px;color:#626262;font-size:13px;font-weight:400;line-height:1.31;letter-spacing:-.2px}.amp-metas>div.article-author{display:block}.amp-metas>div.article-author span{font-weight:700}ul.amp-meta li.amp-share{border-top:1px solid rgba(0,0,0,.12);padding:8px 0 0;margin-top:16px}.amp-content .article p{font-size:1.3rem;line-height:1.4;color:rgba(0,0,0,.87);margin-bottom:1.5rem;padding:0 16px}.amp-read-more:before{display:block;position:absolute;top:0;left:0;width:75px;height:4px;content:"";background:#555}.amp-read-more{position:relative;margin-top:24px;margin-bottom:48px}.amp-read-more h3{padding-top:8px}.amp-read-more a span{border-bottom:solid 1px #e3e3e3;font-size:16px;font-weight:700;line-height:1.25;color:#556b92;display:block;padding:10px 0}.amp-read-more a{text-decoration:none;outline:0}footer#footer{background:#fff;margin-top:24px;color:#666;text-align:center;font-size:10px}footer#footer:before{content:"";display:block;border-top:5px solid #1a1a1a}.amp-container-ad{background:#f2f2f2;width:300px;height:250px;margin:1.5rem auto}.amp-container-taboola{margin:24px auto 0}.footer-logo h1{overflow:hidden;position:absolute}.footer-container{padding:20px 45px}.copyright{margin-top:14px;line-height:normal}.amp-title{font-size:2rem;letter-spacing:0;font-weight:700;line-height:.95;color:rgba(0,0,0,.87);margin:10px 0 12px}.amp-excerpt{font-size:1rem;line-height:1.1;font-weight:500;font-family:latoregular,sans-serif;margin:11px 0 10px;color:#333}.amp-pre-content{background-color:#f5f6f8;border-bottom:1px solid #e2e6ec;max-width:600px;margin-right:auto;margin-left:auto;padding:16px}.amp-category{background-color:#0077b6;padding:6px;color:#fff;font-size:11px;line-height:1.48;white-space:nowrap;border-radius:.25rem;display:inline-block;font-weight:400;text-transform:uppercase;font-family:latoregular,sans-serif;letter-spacing:.05rem}.tags{padding:0 16px;margin-top:3rem;position:relative}.tags h4{font-size:1.33rem;color:rgba(0,0,0,.87);margin:0 0 1.2rem}.tags:before{content:"";width:50px;position:absolute;top:-15px;left:16px;border-top:5px solid #1b7285}.tags ul{padding: 0;}.tags ul li{display: unset;}.tags ul li a{color:#003e76;border-bottom:none;display:inline-block;padding-bottom:1px;font-family:latoregular,sans-serif;font-size:24px;margin-bottom:5px;margin-right:6px;position:relative;text-decoration:none;line-height:1.7}.tags ul li a:before{content:"#";height:auto}.amp-container-taboola{padding:0 16px}figure{margin:1.5rem 0}figure footer{font-weight:700;font-size:1rem;padding:0 16px}figcaption{padding:2px 16px;line-height:1.2;font-size:1rem}video{width:100%;height:auto}audio{display:flex;justify-content:center;margin:1.5rem auto 0;width:100%}.media_info{margin-top:1.5rem}.share-item{width:30px;height:30px;border-radius:50%}.materia-title h3{padding:0 16px;margin-top:1.5rem;font-size:24px}.materia-title h4{padding:0 16px;margin-top:3px;font-size:18px;font-weight:400;font-family:latoregular,sans-serif}.twitter-tweet{margin:1.5rem auto}.cbCitacao{padding:0 16px}blockquote.Left{border-left:4px solid #003e76}blockquote p{font-size:1.2rem;line-height:1.5;margin:0 0 1rem;padding:0;font-family:latoregular,sans-serif}blockquote small{padding:3px 16px 0;font-style:italic}.amp-featured-container{width:100%;margin:0}.galeria-cb{background-color:#21252d;margin:1.5rem 0}.instagram-media{margin:0 auto}.iframe-cb{display:flex;justify-content:center}.amp-metas img{max-height:50px;margin:0 5px 0 0}.bbcbar{background-color:#cc0201;height:24px;text-align:left;margin:0 16px}amp-img[src^="https://a1.api"]{display:inline-block}.galeria-cb figcaption{background-color:#fff;position:absolute;bottom:0;width:100%;padding:0}
.compress-text{max-height:18vh;min-height:174px;overflow-y:hidden}.expanded-text{max-height:100%;overflow-y:unset}.expanded-text{max-height:100%;overflow-y:unset}.read_more{background: #0077b6;border-radius: unset;border: unset;color: #ffffff;opacity: 90%;padding: 10px 25px;display: flex;justify-content: center;margin: 10px auto;}
.entry-text-logo{display: none;}
.entry-text-logo {
color: transparent;
}#i-amp-0>:first-child{padding-top:559%}@media (min-width:329px){#i-amp-0>:first-child{padding-top:547%}}@media (min-width:340px){#i-amp-0>:first-child{padding-top:535%}}@media (min-width:372px){#i-amp-0>:first-child{padding-top:522%}}@media (min-width:392px){#i-amp-0>:first-child{padding-top:511%}}@media (min-width:431px){#i-amp-0>:first-child{padding-top:500%}}@media (min-width:459px){#i-amp-0>:first-child{padding-top:490%}}@media (min-width:473px){#i-amp-0>:first-child{padding-top:478%}}@media (min-width:538px){#i-amp-0>:first-child{padding-top:468%}}@media (min-width:589px){#i-amp-0>:first-child{padding-top:458%}}@media (min-width:656px){#i-amp-0>:first-child{padding-top:449%}}@media (min-width:772px){#i-amp-0>:first-child{padding-top:441%}}@media (min-width:920px){#i-amp-0>:first-child{padding-top:434%}}@media (min-width:1103px){#i-amp-0>:first-child{padding-top:429%}}@media (min-width:1328px){#i-amp-0>:first-child{padding-top:424%}}@media (min-width:1605px){#i-amp-0>:first-child{padding-top:419%}}@media (min-width:1920px){#i-amp-0>:first-child{padding-top:416%}}
{
"@context": "http://www.schema.org",
"@graph": [{
"@type": "BreadcrumbList",
"@id": "",
"itemListElement": [{
"@type": "ListItem",
"@id": "/#listItem",
"position": 1,
"item": {
"@type": "WebPage",
"@id": "/",
"name": "In\u00edcio",
"description": "O Correio Braziliense (CB) é o mais importante canal de notícias de Brasília. Aqui você encontra as últimas notícias do DF, do Brasil e do mundo.",
"url": "/"
},
"nextItem": "/ciencia-e-saude/#listItem"
},
{
"@type": "ListItem",
"@id": "/ciencia-e-saude/#listItem",
"position": 2,
"item": {
"@type": "WebPage",
"@id": "/ciencia-e-saude/",
"name": "Ciência e Saúde",
"description": "Fique por dentro sobre as últimas novidades, pesquisas e análises ",
"url": "/ciencia-e-saude/"
},
"previousItem": "/#listItem"
}
]
},
{
"@type": "NewsArticle",
"mainEntityOfPage": "/ciencia-e-saude/2023/08/5112625-inteligencia-artificial-a-era-do-deus-maquina.html",
"name": "Inteligência artificial: a era do 'deus' máquina ",
"headline": "Inteligência artificial: a era do 'deus' máquina ",
"description": "",
"alternateName": "TECNOLOGIA",
"alternativeHeadline": "TECNOLOGIA",
"datePublished": "2023-08-06-0306:01:00-10800",
"articleBody": "<p class="texto">No teatro grego antigo, quando não havia solução para um ime, um ator interpretando uma divindade descia ao palco pendurado num guindaste, resolvia o problema e, assim, acabava a peça. Era o Deus ex-machina — o deus surgido da máquina. Com o avanço sem precedentes da inteligência artificial (IA), é justo pensar que, no mundo contemporâneo, a máquina é a própria deidade.</p>
<ul>
<li><a href="/ciencia-e-saude/2023/08/5114143-jovens-desistiriam-da-academia-tv-e-ate-mesmo-do-sexo-pelo-celular.html" target="_blank" rel="noopener noreferrer"><strong>Jovens desistiriam da academia, TV e até mesmo do sexo pelo celular</strong></a></li>
</ul>
<ul>
<li><a href="/diversao-e-arte/2023/07/5113153-oppenheimer-e-einstein-a-conturbada-relacao-entre-o-pai-da-bomba-atomica-e-o-nobel-de-fisica.html" target="_blank" rel="noopener noreferrer"><strong>Oppenheimer e Einstein: a conturbada relação entre o 'pai da bomba atômica' e o Nobel de Física</strong></a></li>
</ul>
<ul>
<li><strong><a href="/ciencia-e-saude/2023/07/5110967-o-que-impede-a-era-dos-carros-voadores-de-decolar.html" target="_blank" rel="noopener noreferrer">O que impede a era dos carros voadores de decolar</a> </strong><br /></li>
</ul>
<p class="texto">Para ela, nada parece impossível. Da confecção de discursos em segundos à criação de obras de arte; da identificação de medicamentos promissores ao diagnóstico preciso de doenças, tudo é resolvido pelo "deus algoritmo". E, ao observar sua invenção "surgindo do guindaste", o homem pode se perguntar qual lugar ocupará neste enredo. Segundo especialistas, porém, o perigo não está na criatura e, sim, no uso que o criador faz dela.</p>
<p class="texto">A IA não é propriamente uma novidade. O marco histórico é o ratinho Theseus, programado em 1952 por Claude Shannon. Controlado remotamente, o roedor mecânico eia por um labirinto até encontrar o queijo e é capaz de se lembrar do caminho percorrido. O objeto, que hoje é relíquia do Museu do Instituto de Tecnologia de Massachusetts (MIT), pode parecer simplório. Mas é considerado um dos — se não o — primeiros sistemas inteligentes já criados.</p>
<p class="texto"><div>
<amp-img src="https://midias.correiobraziliense.com.br/_midias/jpg/2023/07/28/thesus-28660715.jpg" width="1200" height="1200" layout="responsive" alt="Theseus, um dos primeiros sistemas de inteligência artificial "></amp-img>
<figcaption>MIT/Divulgação - <b>Theseus, um dos primeiros sistemas de inteligência artificial </b></figcaption>
</div></p>
<p class="texto">Em sete décadas, muita coisa mudou. A inteligência artificial faz parte da rotina, ainda que não se perceba. O GPS que indica o percurso, a atendente virtual, o internet banking são exemplos de seu uso no dia a dia. Só que, até agora, ninguém temia os mecanismos de busca dos navegadores, os sistemas de reconhecimento facial dos condomínios ou a sugestão de filmes apresentadas pelos aplicativos de streaming.</p>
<p class="texto">Então, as máquinas começaram a gerar imagens perfeitas de pessoas inexistentes, escrever reportagens com acurácia, resolver enigmas matemáticos em frações de segundos, dirigir e voar sozinhas, elaborar defesas jurídicas e até "ler" pensamentos em experimentos científicos. A ponto de, em um editorial da revista Science, um grupo de cientistas pedir a moratória de pesquisas até alguma regulamentação ética da IA.</p>
<p class="texto">"A inteligência artificial agora é uma parte muito onipresente de nossas vidas cotidianas, portanto, há uma compreensão visceral de seu impacto", opina Subbarao Kambhampati, professor de engenharia da computação na Universidade Estadual do Arizona e presidente da Associação para o Avançado da IA, nos Estados Unidos. Ele se diz otimista sobre o potencial da tecnologia, mas reconhece que muitas pessoas estão preocupadas em dividir o mundo com máquinas pensantes.</p>
<p class="texto"><strong>Medo</strong></p>
<p class="texto">"Elon Musk (magnata e empreendedor) iniciou essa tendência de medo da IA dizendo que o que o mantém acordado à noite é a ideia de máquinas superinteligentes que se tornarão mais poderosas que os humanos", destaca. "Declarações como essa, vindas de pessoas influentes, é claro que preocupam o público. Não tenho uma visão tão pessimista." Porém, Kambhampati reconhece que é preciso acompanhar com cautela os limites de uma tecnologia que, aparentemente, não tem fronteiras. "Devemos permanecer atentos a todas as ramificações dessa poderosa tecnologia e trabalhar para mitigar as consequências, como o deslocamento da força de trabalho, e estabelecer as melhores práticas e diretrizes éticas em todo o setor."</p>
<p class="texto">A discussão sobre riscos e avanços da IA ultraa o campo da ciência da computação; é também filosófica. Já na Grécia Antiga, filósofos questionavam a essência da inteligência e se esse era um atributo somente humano. Aristóteles, por exemplo, acreditava que objetos inanimados também pensavam, embora de forma distinta das pessoas. Já Platão entendia que o conhecimento era inato: uma máquina poderia até á-lo, mas não necessariamente o compreenderia.</p>
<p class="texto">Hoje, esse é um dos centros da discussão sobre IA: sistemas programados e alimentados por seres humanos poderão ultraar em astúcia seus criadores? Não, garante um dos maiores especialistas no tema, o cientista da computação francês Jean-Gabriel Ganascia, da Universidade de Sorbonne que, já em 1980, obteve mestrado em inteligência artificial em Paris. Membro da Associação Europeia de IA, ele tem se dedicado, nos últimos anos, a fazer palestras e escrever artigos sobre o tema.</p>
<p class="texto"> </p>
<h3>PALAVRA DE ESPECIALISTA / Desinformação, o risco real</h3>
<p class="texto">"O risco da IA deve, de fato, ser discutido e mitigado. No entanto, os riscos mais graves e imediatos para a humanidade não são a possibilidade de que a IA possa um dia se voltar contra nós autonomamente, como o robô HAL 9000 fez no filme 2001: Uma Odisseia no Espaço. Os riscos mais graves vêm da miopia humana em termos de usar IA para gerar e espalhar facilmente conteúdo falso altamente plausível, minando o conceito de verdade e tornando difícil saber em quem e no que confiar; a dependência da tecnologia de IA resultando em perda de empregos sem planos cuidadosos de requalificação profissional, com aumento irrevogável das desigualdades sociais e concentração de conhecimento e poder nas mãos de um pequeno número de grandes empresas de tecnologia; a perda de habilidades de pensamento crítico à medida que dependemos cada vez mais da IA para tarefas de raciocínio, levando à estupidez dos humanos. Acho que esses riscos, decorrentes do uso indevido da tecnologia de IA por humanos, devem receber a mais alta prioridade para que possamos colher os benefícios da IA, como novas descobertas científicas e avanços na saúde e na educação, ao mesmo tempo em que mitigamos sérios danos".</p>
<p class="texto"><strong>Maria Liakata</strong>, professora de Processamento Natural da Linguagem na Universidade Mary Queen, em Londres</p>
<p class="texto"> </p>
<p class="texto"> </p>
<h3>É só um software</h3>
<p class="texto">Cinco anos antes de os chatbots começarem a escrever poesia e produzir teses acadêmicas, o especialista em tecnologia da informação Jean-Gabriel Ganascia publicou um artigo na revista da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), discutindo mito e realidade no mundo das máquinas. O texto, de 2018, sustenta que a ideia de computadores superarem a humanidade fundamenta-se em mitos e lendas como a do Golem ou de Talos, figuras dotadas de vida. Com a ajuda de Elon Musk, do astrofísico Stephen Hawking e do futurista Ray Kurzweil, que fizeram declarações apoiando essa ideia, disseminou-se o medo de um mundo comandado por robôs.</p>
<p class="texto"><div>
<amp-img src="https://midias.correiobraziliense.com.br/_midias/jpg/2023/07/28/pexels_katerina_holmes_5905700__1_-28661324.jpg" width="1200" height="800" layout="responsive" alt="Interação de jovens com chatbots deve ser debatida, sustenta especialista "></amp-img>
<figcaption>Katherina Holmes/Divulgação - <b>Interação de jovens com chatbots deve ser debatida, sustenta especialista </b></figcaption>
</div> </p>
<p class="texto">"Ao contrário do que algumas pessoas alegam, as máquinas não oferecem nenhuma ameaça existencial à humanidade. Sua autonomia é puramente tecnológica", afirmou Ganascia. Recentemente, em uma palestra do projeto TED, o cientista da computação reafirmou que as máquinas "não têm vontade própria e permanecem subjugadas aos objetivos que damos a elas".</p>
<p class="texto">É o que pensa também John Behrens, diretor de iniciativas tecnológicas do Colégio de Artes e Letras Notre Dame, nos Estados Unidos. "Inteligência artificial é um tipo de software, e quanto mais as pessoas a tratarem dessa forma — e não como um ser robótico — melhor para nós", diz.</p>
<p class="texto">Para o especialista, erros e acertos na área da IA não estão vinculados ao "desejo" da máquina, mas ao uso que o humano faz dela. "Por exemplo, é apropriado que um jovem interaja com um chatbot se o software soa tão humano que o jovem se torna emocionalmente apegado e vulnerável?", questiona. "A questão fundamental, é que a tecnologia e suas aplicações estão evoluindo mais rápido do que as ciências sociais, as humanidades e as artes podem acompanhar."</p>
<p class="texto"><strong>Distração</strong></p>
<p class="texto">Centralizar a discussões sobre IA em riscos potenciais de máquinas dominarem o mundo é distrair das questões éticas centrais, destaca Noel Sharkey, professor emérito de Inteligência Artificial e Robótica da Universidade de Sheffield, no Reino Unido. Como o homem está programando os sistemas para perpetuar padrões discriminatórios é mais importante que discutir sobre supostas rebeliões de robôs, acredita.</p>
<p class="texto">"A IA representa muitos perigos para a humanidade, mas não há ameaça existencial ou qualquer evidência de uma", argumenta Sharkey. "Muitos sistemas de IA empregados no policiamento, justiça, entrevistas de emprego, vigilância de aeroportos e até aportes automáticos mostraram-se imprecisos e preconceituosos contra pessoas de cor, mulheres e pessoas com deficiência. Há muita pesquisa sobre isso e precisamos desesperadamente regular a IA. Procurar riscos que ainda não existem ou podem nunca existir desvia a atenção dos problemas fundamentais." (<strong>PO</strong>)</p>
<p class="texto"> </p>
<h3>Leia amanhã: A IA nos cuidados à saúde</h3>
<p class="texto"><div class="read-more">
<h4>Saiba Mais</h4>
<ul>
</ul>
</div></p>
<p class="texto"> </p>
<p class="texto"> <br /></p>",
"isAccessibleForFree": true,
"image": [
"https://midias.correiobraziliense.com.br/_midias/jpg/2023/07/28/1200x801/1_subbarao_kambhampati_2-28660339.jpg?20230806075617?20230806075617",
"https://midias.correiobraziliense.com.br/_midias/jpg/2023/07/28/1000x1000/1_subbarao_kambhampati_2-28660339.jpg?20230806075617?20230806075617",
"https://midias.correiobraziliense.com.br/_midias/jpg/2023/07/28/800x600/1_subbarao_kambhampati_2-28660339.jpg?20230806075617?20230806075617"
],
"author": [
{
"@type": "Person",
"name": "Paloma Oliveto",
"url": "/autor?termo=paloma-oliveto"
}
],
"publisher": {
"logo": {
"url": "https://image.staticox.com/?url=https%3A%2F%2Fimgs2.correiobraziliense.com.br%2Famp%2Flogo_cb_json.png",
"@type": "ImageObject"
},
"name": "Correio Braziliense",
"@type": "Organization"
}
},
{
"@type": "Organization",
"@id": "/#organization",
"name": "Correio Braziliense",
"url": "/",
"logo": {
"@type": "ImageObject",
"url": "/_conteudo/logo_correo-600x60.png",
"@id": "/#organizationLogo"
},
"sameAs": [
"https://www.facebook.com/correiobraziliense",
"https://twitter.com/correiobraziliense.com.br",
"https://instagram.com/correio.braziliense",
"https://www.youtube.com/@correiobraziliense5378"
],
"Point": {
"@type": "Point",
"telephone": "+556132141100",
"Type": "office"
}
}
]
}
{
"@context": "http://schema.org",
"@graph": [{
"@type": "SiteNavigationElement",
"name": "Início",
"url": "/"
},
{
"@type": "SiteNavigationElement",
"name": "Cidades DF",
"url": "/cidades-df/"
},
{
"@type": "SiteNavigationElement",
"name": "Politica",
"url": "/politica/"
},
{
"@type": "SiteNavigationElement",
"name": "Brasil",
"url": "/brasil/"
},
{
"@type": "SiteNavigationElement",
"name": "Economia",
"url": "/economia/"
},
{
"@type": "SiteNavigationElement",
"name": "Mundo",
"url": "/mundo/"
},
{
"@type": "SiteNavigationElement",
"name": "Diversão e Arte",
"url": "/diversao-e-arte/"
},
{
"@type": "SiteNavigationElement",
"name": "Ciência e Saúde",
"url": "/ciencia-e-saude/"
},
{
"@type": "SiteNavigationElement",
"name": "Eu Estudante",
"url": "/euestudante/"
},
{
"@type": "SiteNavigationElement",
"name": "Concursos",
"url": "http://concursos.correioweb.com.br/"
},
{
"@type": "SiteNavigationElement",
"name": "Esportes",
"url": "/esportes/"
}
]
}
5r2z42
Inteligência artificial 3c8s a era do 'deus' máquina
Inteligência artificial: a era do 'deus' máquina n5k3
Da confecção de teses à "leitura de pensamentos", ferramentas de inteligência artificial parecem capazes de resolver qualquer problema. Especialistas não acreditam que os sistemas vão superar o homem 1g3y4u
Por Paloma Oliveto
06/08/2023 06:01 - Atualizado em 06/08/2023 19:34
Subbarao Kambhampati, da Universidade Estadual do Arizona: declarações temerosas de pessoas influentes sobre a IA podem gerar expectativas erradas entre leigos
Universidade Estadual do Arizona
No teatro grego antigo, quando não havia solução para um ime, um ator interpretando uma divindade descia ao palco pendurado num guindaste, resolvia o problema e, assim, acabava a peça. Era o Deus ex-machina — o deus surgido da máquina. Com o avanço sem precedentes da inteligência artificial (IA), é justo pensar que, no mundo contemporâneo, a máquina é a própria deidade.
Para ela, nada parece impossível. Da confecção de discursos em segundos à criação de obras de arte; da identificação de medicamentos promissores ao diagnóstico preciso de doenças, tudo é resolvido pelo "deus algoritmo". E, ao observar sua invenção "surgindo do guindaste", o homem pode se perguntar qual lugar ocupará neste enredo. Segundo especialistas, porém, o perigo não está na criatura e, sim, no uso que o criador faz dela.
A IA não é propriamente uma novidade. O marco histórico é o ratinho Theseus, programado em 1952 por Claude Shannon. Controlado remotamente, o roedor mecânico eia por um labirinto até encontrar o queijo e é capaz de se lembrar do caminho percorrido. O objeto, que hoje é relíquia do Museu do Instituto de Tecnologia de Massachusetts (MIT), pode parecer simplório. Mas é considerado um dos — se não o — primeiros sistemas inteligentes já criados.
MIT/Divulgação - Theseus, um dos primeiros sistemas de inteligência artificial
Em sete décadas, muita coisa mudou. A inteligência artificial faz parte da rotina, ainda que não se perceba. O GPS que indica o percurso, a atendente virtual, o internet banking são exemplos de seu uso no dia a dia. Só que, até agora, ninguém temia os mecanismos de busca dos navegadores, os sistemas de reconhecimento facial dos condomínios ou a sugestão de filmes apresentadas pelos aplicativos de streaming.
Então, as máquinas começaram a gerar imagens perfeitas de pessoas inexistentes, escrever reportagens com acurácia, resolver enigmas matemáticos em frações de segundos, dirigir e voar sozinhas, elaborar defesas jurídicas e até "ler" pensamentos em experimentos científicos. A ponto de, em um editorial da revista Science, um grupo de cientistas pedir a moratória de pesquisas até alguma regulamentação ética da IA.
"A inteligência artificial agora é uma parte muito onipresente de nossas vidas cotidianas, portanto, há uma compreensão visceral de seu impacto", opina Subbarao Kambhampati, professor de engenharia da computação na Universidade Estadual do Arizona e presidente da Associação para o Avançado da IA, nos Estados Unidos. Ele se diz otimista sobre o potencial da tecnologia, mas reconhece que muitas pessoas estão preocupadas em dividir o mundo com máquinas pensantes.
Medo
"Elon Musk (magnata e empreendedor) iniciou essa tendência de medo da IA dizendo que o que o mantém acordado à noite é a ideia de máquinas superinteligentes que se tornarão mais poderosas que os humanos", destaca. "Declarações como essa, vindas de pessoas influentes, é claro que preocupam o público. Não tenho uma visão tão pessimista." Porém, Kambhampati reconhece que é preciso acompanhar com cautela os limites de uma tecnologia que, aparentemente, não tem fronteiras. "Devemos permanecer atentos a todas as ramificações dessa poderosa tecnologia e trabalhar para mitigar as consequências, como o deslocamento da força de trabalho, e estabelecer as melhores práticas e diretrizes éticas em todo o setor."
A discussão sobre riscos e avanços da IA ultraa o campo da ciência da computação; é também filosófica. Já na Grécia Antiga, filósofos questionavam a essência da inteligência e se esse era um atributo somente humano. Aristóteles, por exemplo, acreditava que objetos inanimados também pensavam, embora de forma distinta das pessoas. Já Platão entendia que o conhecimento era inato: uma máquina poderia até á-lo, mas não necessariamente o compreenderia.
Hoje, esse é um dos centros da discussão sobre IA: sistemas programados e alimentados por seres humanos poderão ultraar em astúcia seus criadores? Não, garante um dos maiores especialistas no tema, o cientista da computação francês Jean-Gabriel Ganascia, da Universidade de Sorbonne que, já em 1980, obteve mestrado em inteligência artificial em Paris. Membro da Associação Europeia de IA, ele tem se dedicado, nos últimos anos, a fazer palestras e escrever artigos sobre o tema.
PALAVRA DE ESPECIALISTA / Desinformação, o risco real 2n3z3m
"O risco da IA deve, de fato, ser discutido e mitigado. No entanto, os riscos mais graves e imediatos para a humanidade não são a possibilidade de que a IA possa um dia se voltar contra nós autonomamente, como o robô HAL 9000 fez no filme 2001: Uma Odisseia no Espaço. Os riscos mais graves vêm da miopia humana em termos de usar IA para gerar e espalhar facilmente conteúdo falso altamente plausível, minando o conceito de verdade e tornando difícil saber em quem e no que confiar; a dependência da tecnologia de IA resultando em perda de empregos sem planos cuidadosos de requalificação profissional, com aumento irrevogável das desigualdades sociais e concentração de conhecimento e poder nas mãos de um pequeno número de grandes empresas de tecnologia; a perda de habilidades de pensamento crítico à medida que dependemos cada vez mais da IA para tarefas de raciocínio, levando à estupidez dos humanos. Acho que esses riscos, decorrentes do uso indevido da tecnologia de IA por humanos, devem receber a mais alta prioridade para que possamos colher os benefícios da IA, como novas descobertas científicas e avanços na saúde e na educação, ao mesmo tempo em que mitigamos sérios danos".
Maria Liakata, professora de Processamento Natural da Linguagem na Universidade Mary Queen, em Londres
É só um software 3u121g
Cinco anos antes de os chatbots começarem a escrever poesia e produzir teses acadêmicas, o especialista em tecnologia da informação Jean-Gabriel Ganascia publicou um artigo na revista da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), discutindo mito e realidade no mundo das máquinas. O texto, de 2018, sustenta que a ideia de computadores superarem a humanidade fundamenta-se em mitos e lendas como a do Golem ou de Talos, figuras dotadas de vida. Com a ajuda de Elon Musk, do astrofísico Stephen Hawking e do futurista Ray Kurzweil, que fizeram declarações apoiando essa ideia, disseminou-se o medo de um mundo comandado por robôs.
Katherina Holmes/Divulgação - Interação de jovens com chatbots deve ser debatida, sustenta especialista
"Ao contrário do que algumas pessoas alegam, as máquinas não oferecem nenhuma ameaça existencial à humanidade. Sua autonomia é puramente tecnológica", afirmou Ganascia. Recentemente, em uma palestra do projeto TED, o cientista da computação reafirmou que as máquinas "não têm vontade própria e permanecem subjugadas aos objetivos que damos a elas".
É o que pensa também John Behrens, diretor de iniciativas tecnológicas do Colégio de Artes e Letras Notre Dame, nos Estados Unidos. "Inteligência artificial é um tipo de software, e quanto mais as pessoas a tratarem dessa forma — e não como um ser robótico — melhor para nós", diz.
Para o especialista, erros e acertos na área da IA não estão vinculados ao "desejo" da máquina, mas ao uso que o humano faz dela. "Por exemplo, é apropriado que um jovem interaja com um chatbot se o software soa tão humano que o jovem se torna emocionalmente apegado e vulnerável?", questiona. "A questão fundamental, é que a tecnologia e suas aplicações estão evoluindo mais rápido do que as ciências sociais, as humanidades e as artes podem acompanhar."
Distração
Centralizar a discussões sobre IA em riscos potenciais de máquinas dominarem o mundo é distrair das questões éticas centrais, destaca Noel Sharkey, professor emérito de Inteligência Artificial e Robótica da Universidade de Sheffield, no Reino Unido. Como o homem está programando os sistemas para perpetuar padrões discriminatórios é mais importante que discutir sobre supostas rebeliões de robôs, acredita.
"A IA representa muitos perigos para a humanidade, mas não há ameaça existencial ou qualquer evidência de uma", argumenta Sharkey. "Muitos sistemas de IA empregados no policiamento, justiça, entrevistas de emprego, vigilância de aeroportos e até aportes automáticos mostraram-se imprecisos e preconceituosos contra pessoas de cor, mulheres e pessoas com deficiência. Há muita pesquisa sobre isso e precisamos desesperadamente regular a IA. Procurar riscos que ainda não existem ou podem nunca existir desvia a atenção dos problemas fundamentais." (PO)
Leia amanhã: A IA nos cuidados à saúde 393v4k
Saiba Mais 2h1b4e
MIT/Divulgação - Theseus, um dos primeiros sistemas de inteligência artificial
Katherina Holmes/Divulgação - Interação de jovens com chatbots deve ser debatida, sustenta especialista
É só um software 3u121g
Katherina Holmes/Divulgação
Cinco anos antes de os chatbots começarem a escrever poesia e produzir teses acadêmicas, o especialista em tecnologia da informação Jean-Gabriel Ganascia publicou um artigo na revista da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), discutindo mito e realidade no mundo das máquinas. O texto, de 2018, sustenta que a ideia de computadores superarem a humanidade fundamenta-se em mitos e lendas como a do Golem ou de Talos, figuras dotadas de vida. Com a ajuda de Elon Musk, do astrofísico Stephen Hawking e do futurista Ray Kurzweil, que fizeram declarações apoiando essa ideia, disseminou-se o medo de um mundo comandado por robôs.
"Ao contrário do que algumas pessoas alegam, as máquinas não oferecem nenhuma ameaça existencial à humanidade. Sua autonomia é puramente tecnológica", afirmou Ganascia. Recentemente, em uma palestra do projeto TED, o cientista da computação reafirmou que as máquinas "não têm vontade própria e permanecem subjugadas aos objetivos que damos a elas".
É o que pensa também John Behrens, diretor de iniciativas tecnológicas do Colégio de Artes e Letras Notre Dame, nos Estados Unidos. "Inteligência artificial é um tipo de software, e quanto mais as pessoas a tratarem dessa forma — e não como um ser robótico — melhor para nós", diz.
Para o especialista, erros e acertos na área da IA não estão vinculados ao "desejo" da máquina, mas ao uso que o humano faz dela. "Por exemplo, é apropriado que um jovem interaja com um chatbot se o software soa tão humano que o jovem se torna emocionalmente apegado e vulnerável?", questiona. "A questão fundamental, é que a tecnologia e suas aplicações estão evoluindo mais rápido do que as ciências sociais, as humanidades e as artes podem acompanhar."
Distração
Centralizar a discussões sobre IA em riscos potenciais de máquinas dominarem o mundo é distrair das questões éticas centrais, destaca Noel Sharkey, professor emérito de Inteligência Artificial e Robótica da Universidade de Sheffield, no Reino Unido. Como o homem está programando os sistemas para perpetuar padrões discriminatórios é mais importante que discutir sobre supostas rebeliões de robôs, acredita.
"A IA representa muitos perigos para a humanidade, mas não há ameaça existencial ou qualquer evidência de uma", argumenta Sharkey. "Muitos sistemas de IA empregados no policiamento, justiça, entrevistas de emprego, vigilância de aeroportos e até aportes automáticos mostraram-se imprecisos e preconceituosos contra pessoas de cor, mulheres e pessoas com deficiência. Há muita pesquisa sobre isso e precisamos desesperadamente regular a IA. Procurar riscos que ainda não existem ou podem nunca existir desvia a atenção dos problemas fundamentais." (PO)
Desinformação, o risco real 5e3qg
Universidade Mary Queen/Divulgação
"O risco da IA deve, de fato, ser discutido e mitigado. No entanto, os riscos mais graves e imediatos para a humanidade não são a possibilidade de que a IA possa um dia se voltar contra nós autonomamente, como o robô HAL 9000 fez no filme 2001: Uma Odisseia no Espaço. Os riscos mais graves vêm da miopia humana em termos de usar IA para gerar e espalhar facilmente conteúdo falso altamente plausível, minando o conceito de verdade e tornando difícil saber em quem e no que confiar; a dependência da tecnologia de IA resultando em perda de empregos sem planos cuidadosos de requalificação profissional, com aumento irrevogável das desigualdades sociais e concentração de conhecimento e poder nas mãos de um pequeno número de grandes empresas de tecnologia; a perda de habilidades de pensamento crítico à medida que dependemos cada vez mais da IA para tarefas de raciocínio, levando à estupidez dos humanos. Acho que esses riscos, decorrentes do uso indevido da tecnologia de IA por humanos, devem receber a mais alta prioridade para que possamos colher os benefícios da IA, como novas descobertas científicas e avanços na saúde e na educação, ao mesmo tempo em que mitigamos sérios danos".
Maria Liakata, professora de Processamento Natural da Linguagem na Universidade Mary Queen, em Londres