top of page

simulações etc: eteceteras, simulando

AS CIDADES

E AS TROCAS

4

Em Ercília, para estabelecer as ligações que orientam a vida da cidade, os

habitantes estendem fios entre as arestas das casas, brancos ou pretos ou cinza ou

pretos e brancos, de acordo com as relações de parentesco, troca, autoridade,

representação. Quando os fios são tantos que não se pode mais atravessar, os

habitantes vão embora: as casas são desmontadas; restam apenas os fios e os

sustentáculos dos fios.

 

Do costado de um morro, acampados com os móveis de casa, os prófugos de

Ercília olham para o enredo de fios estendidos e os postes que se elevam na planície.

Aquela continua a ser a cidade de Ercília, e eles não são nada.

 

Reconstroem Ercília em outro lugar. Tecem com os fios uma figura semelhante, mas

gostariam que fosse mais complicada e ao mesmo tempo mais regular do que a outra.

Depois a abandonam e transferem-se juntamente com as casas para ainda mais longe.

Deste modo, viajando-se no território de Ercília, depara-se com as ruínas de

cidades abandonadas, sem as muralhas que não duram, sem os ossos dos mortos que

rolam com o vento: teias de aranha de relações intricadas à procura de uma forma.

as cidades invisíveis, p 72

Simuladores - observando teorias e hipóteses

No debate sobre teoria do conhecimento durante o séc. XX, quase central, esteve a insuficiência do conhecimento, de como a ciência é incompleta, e de que conhecimento, ciência, teorias, são representações negociadas da realidade em constante mudança. Serem representações significa dizer que são propostas de descrição simplificadas, no sentido de incompletas, o que leva a uma constante evolução da ciência, que talvez seja dos poucos consensos sobre ciência, perpassando áreas diferentes como física, linguística, filosofia, matemática; de Max Planck a Lakoff, de Wiener a Kuhn, de Russel a Wolfram. E serem negociadas implica em se acordar socialmente o uso daquela representação para determinado fim, por qualquer que seja o motivo do acordo. Isso nos aponta uma discussão sobre a utilidade e, eventualmente, ao processo de evolução da ciência, ou se preferirmos, das teorias.

A incompletude do conhecimento é imposta pela complexidade da realidade, na quantidade e diversidade de seus objetos e aspectos e relações, sendo limitado, por um lado, por quais destes nos são perceptíveis ou não, e pelo outro, pelo nosso limite de capacidade de processar informações. A simplificação se impõe por mera incapacidade: nem sempre se consegue perceber e/ou processar todos os aspectos de um fenômeno. É importante lembrar, no entanto, que essas capacidades, de percepção e processamento, costumam ser expandidas com desenvolvimentos tecnológicos, desenvolvendo câmeras que permitem ver o infravermelho ou computadores capazes de milhões de cálculos por segundo.​

A negociação do conhecimento se dá quando representações, ou seja, teorias, são acordadas socialmente: determinado grupo concorda em usar aquela representação da realidade para determinado fim, por qualquer que seja o motivo do acordo. Kuhn (2017) evidencia isso quando fala da sucessão de teorias ser mais consequência do surgimento de novas gerações familiarizadas com outras teorias do que a sociedade ser convencida de que uma é melhor que a outra. A teoria em voga não é a única, apenas tende a ser a mais popular, seja por resultados práticos, por facilidade de assimilação, popularidade do garoto propaganda, programa ético defendido, imposição e doutrina. Em contrapartida, níveis de pragmatismo tornam evidente a utilidade das teorias e funcionam como uma espécie de critério de corte ou de promoção/divulgação, seja com testes de validação através da falseabilidade de Popper (2013), ou de resultados obtidos a partir delas, como nos sistemas de engenharia de Koen (2003).​

O conhecimento é descrito por Wiener (1948) a partir do modelo cibernético como a abertura (entendimento) da caixa preta dos mecanismos de interação entre um sistema e os demais elementos no ambiente. A qualidade do controle está na aproximação entre intencionalidade do sistema e a reação obtida na interação com o ambiente. Nem toda intenção é realizada, ou pelo menos nem sempre é realizada na intensidade desejada, como nos mostra a evolução do conhecimento. Não se precisa conhecer a coisa para interagir com ela, entretanto, à medida em que se vai conhecendo, aproxima-se cada vez mais a expectativa de interação com a realidade conseguida. A distância entre intenção e realização está no conhecimento do mecanismo dos sistemas com os quais se deseja interagir, numa teoria mais apropriada, numa representação mais aproximada da realidade.​

Seguindo Lakatos (1989), podemos falar grosso modo que os programas científicos seriam os diferentes sistemas de representação das ciências, geralmente utilizados em determinados momentos no tempo. São representações internamente coerentes, estruturadas a partir de axiomas e teoremas, os quais formam um núcleo duro de ideias, e de camadas menos rígidas de proposições, tudo mais ou menos acomodado para a descrição dos fenômenos. Os testes dessas proposições e descobertas de casos especiais promovem ajustes e alterações ou mesmo a construção de novas proposições, de modo a manter um programa razoavelmente coerente. Claro que quanto mais central for o aspecto questionado, maior será a evidência necessária de contradição para fazer frente à resistência à mudança. Eventualmente, fortes evidências contra o núcleo duro do programa tendem a exigir a substituição por outro.​

Anterior a Lakatos, Popper oferece a falseabilidade como método para indicar se a teoria funciona ou não, quer dizer, explica (toda ou parte da) a realidade ou não. O seu método é baseado na dedução a partir do conceito de falseabilidade, e afirma que só é possível saber aquilo cuja negação pode ser observada. O fato de algo acontecer de certa maneira muitas vezes não significa que ele é daquela maneira, mas apenas que outras situações podem não ter sido observadas ainda. A imagem mais popular é de que a Europa sabia que os cisnes eram brancos até chegarem à Austrália e encontrarem cisnes negros. Não é porque todos os cisnes que se conhece são brancos que não existem cisnes negros, ou de outras cores.​

O conhecimento, ou ciência, não é fechado; está sempre sujeito à prova. A substituição  por um modelo mais adequado na descrição do que se pode dizer como realidade objetiva do mundo deve ser constante. Koen (2003), discorrendo sobre heurísticas no processo de engeneering design, fala de uma constante atualização das mesmas, de maneira que, mesmo que não se saiba exatamente como ou porquê, elas devem ser usadas desde que pareçam levar a algo que funcione. O que se usa para orientar uma decisão com um objetivo tem (ou pelo menos deveria ter) o compromisso com essa eficácia, e precisa estar constantemente sob crítica e atualização, não só observando casos de falha mas também buscando maior eficiência. Koen (2003), fala que embora não sejam 100% reais, teorias já oferecem uma explicação ou resultado melhor do que alguma ação aleatória.​

Essas representações do mundo, sejam pela ciência, conhecimento, religião, servem como explicações para orientar as tomadas de decisão, no sentido de se alcançar um determinado objetivo. Essa reflexão sobre ciência e conhecimento faz eco com a discussão da sociedade de risco que Ascher (2010) propõe. Alguma previsibilidade é menos risco do que nenhuma. O esforço de minimização de riscos leva a uma constante busca por modelos mais coerentes com a realidade. E assim, podemos observar uma evolução dessas representações baseadas tanto na sua popularidade como na sua eficácia e eficiência de resultados.​

O conhecimento e modelos teóricos derivados a partir dele estão em constante evolução. Na nossa era moderna, explicações mágicas e divinas cederam às científicas. Envolvem um processo constante de observar, criar o modelo, confrontar com a observação, reformular o modelo. É esse confronto entre realidade observada e teoria (representação proposta) que está na base do conhecimento. As explicações se mantêm enquanto satisfazem a necessidade de explicação pelo menos parcialmente, ou até aparecer uma melhor. Mudanças no objeto (evolução dele), ou na sua observação (outras ferramentas, tecnológicas ou conceituais) tendem a produzir novas explicações, sejam mais simples ou mais sofisticadas, mas geralmente mais precisas e com maior poder de explicação e controle. Com as cidades não se passa diferente, e há uma evolução contante sobre as teorias urbanas, ou pelo menos, dos pressupostos nos quais as intervenções urbanas se baseiam.

O séc. XX iniciou uma transição nas explicações de funcionamento do mundo. A era moderna aceitava e explicava os fenômenos a partir de modelos bastante simplificados, que, entretanto, resolveram e ainda resolvem satisfatoriamente muitas situações. Eles nos trouxeram até aqui. O séc. XX chega com algumas mudanças e, nas suas primeiras décadas, Weaver (1948) está entre os pioneiros do pensamento de complexidade. Ele classifica os problemas científicos em três categorias: problemas simples, problemas de complexidade desorganizada e problemas de complexidade organizada.

 

Os problemas simples permitem uma redução dos fenômenos a uma ou duas variáveis principais, aqueles tratados pela física clássica newtoniana sendo o principal exemplo. Questões com mais variáveis eram tratadas com a ressalva da simplificação, sabendo que o resultado era a aproximação possível, nem sempre satisfatória. Quando essa quantidade de elementos explode, se está diante de problemas de complexidade desorganizada. Esses problemas também já possuem tratamento a contento a partir do estudo de probabilidades e estatísticas.

 

O terceiro tipo, de complexidade organizada, envolve uma quantidade grande de elementos numa interdependência que nem sempre apresenta comportamento linear. Estes problemas são de especial interesse da TGS e da teoria da Complexidade, proto-teorias que tratam de sistemas complexos e sistemas complexos adaptativos, englobando entre eles cidades, sociedades, arranjos econômicos, redes ecológicas e a grande maioria dos sistemas vivos. É a partir dessa perspectiva que desenvolvemos esta tese, considerando as cidades como CAS, e entendendo a dificuldade de observação dos seus fenômenos, a busca por uma representação, e necessidade de uma ferramenta que permita ou facilite sua observação e ou simplificação.

 

montando o experimento

Em geral, a pesquisa científica se fia na observação de fenômenos sob o pano de fundo de hipóteses que pretendem explicá-los. Em definições já clássicas, como métodos discutidos por Popper, é fundamental a capacidade de observação de uma série de resultados possíveis do fenômeno, especialmente da possibilidade que negaria a hipótese.  Assim, se uma hipótese diz que toda vez que eu jogar uma moeda de certa maneira vai dar “cara”, o experimento tem que permitir que se observe a possibilidade desse resultado ser “coroa”, do contrário não se pode garantir que ele não aconteça. Ou seja, a maneira como se prepara a observação tem que permitir enxergar os diversos resultados. Se a observação não estiver estruturada de maneira a ver os resultados do fenômeno, a ciência produzida pela observação fica comprometida, e se volta a tratar apenas de especulações.

É essa dificuldade de observação que leva à montagem de experimentos. Eventualmente, o fenômeno que se quer observar acontece numa frequência muito baixa, ou, num tempo muito curto, ou ainda, num aspecto da realidade que não se pode observar a olho nu. Para permitir a observação, uma série de ferramentas e métodos, capazes de tornar observáveis os fenômenos, é desenvolvida. Por exemplo, para se observar efeitos de evolução genética em populações, é comum se utilizar a mosca drosophila melanogaster, com um ciclo de vida curto o suficiente para permitir observar as variações ao longo de várias gerações. Também se utilizam microscópios para observar objetos no nível celular, infravermelho para enxergar temperaturas de corpos distantes, e pastilhas de iodo para poder ver os restos de alimentos e tártaro nos dentes quando no dentista.

Tempo, dimensão e aspecto da realidade são questões que vão permitir ou não a percepção dos fenômenos. Tradicionalmente, tem-se construído ferramentas para expandir nossa percepção para além das capacidades naturais. Alguma quantidade dos fenômenos urbanos cai quase na fronteira da nossa capacidade de observação. Já de partida para uma ciência urbana, temos que poder observar. E como fazer isso sem que o fenômeno se repita? Quando ele vai acontecer de novo? E ainda, quando ele se passa, o que, dentre todas as coisas que estão acontecendo simultaneamente, tem ação ou interação com ele? A necessidade de múltiplas observações se dá exatamente para poder monitorar ou controlar o que mais acontece para que certo fenômeno ocorra. A dificuldade dessa observação no mundo real tende a levar à construção de experimentos que possam reproduzi-lo. O tempo e a reprodutibilidade dos fenômenos urbanos não costumam cooperar muito para essas observações. Se não o tempo para observar certos fenômenos, as dificuldades em comprometer toda uma população são sérios empecilhos para realização de experiências urbanas que permitiriam o estudo adequado.

 

simulações

Em várias disciplinas, simulações computacionais têm sido utilizadas como alternativas para as experimentações. Na arquitetura, são comuns simulações de estruturas e conforto ambiental, por exemplo. A simulação de fluxos de pessoas tem sido utilizada também, tanto para projetos quanto para estudos. Simulações costumam ser mais baratas que experimentos reais, e mais rápidas, embora é claro, apresentem o problema da correta representação do fenômeno. Quando aliadas a observações adequadas, podem chegar a ser calibradas a ponto de uma correspondência próxima o suficiente para uso dos seus resultados em objetos reais, como se dá com várias expressões matemáticas corriqueiras em física e cálculo de estruturas.

Às vezes elas podem servir apenas como provas de conceito. Lançando mão de simulações, Wolfram (2001) apresenta a capacidade dos automata celulares representarem uma infinidade de comportamentos de agentes baseados em estados da vizinhança, e Holland (1998) mostra como a segregação espacial de grupos é esperada quando os elementos possuem algum grau de preferência de similaridade e a distribuição deles no espaço não é homogênea. Numa prova de conceito simulada sobre a influência dos passantes no uso atribuído aos lotes, Netto (2017) demonstra, a partir de uma simulação num espaço unidimensional, como o custo na movimentação é condição necessária, mas não suficiente, para uma clusterização dos usos.​

​Neste trabalho, pretendemos justamente elaborar uma simulação para verificar uma prova de conceito. Reforçando, gostaríamos de testar se mudanças na geometria da cidade, ou seja, desenho de ruas, distribuição dos quarteirões, o que estamos chamando de cidade-física, interfere na topologia da rede social de encontros dos seus habitantes, a cidade-rede. O objeto central de nossa simulação é um CAS, um conjunto (social) de pessoas. Entendemos que uma ABM (agent based modeling) seja a estratégia de modelagem mais adequada. Existem plataformas de programação voltadas para ABM, como a NetLogo, que já usamos para ilustrar conceitos nesta tese. Plataformas voltadas para games também possuem intrinsecamente essa estrutura e muitas vezes incorporam outras funcionalidades como interação entre objetos, leis da física etc. Por isso escolhemos o Unity, uma plataforma de desenvolvimento de jogos 2D e 3D, como o ambiente para o desenvolvimento da nossa simulação. Apesar de a nossa investigação ser bem simples em relação ao comportamento dos agentes, entendemos o potencial dessa estrutura para investigações futuras, em especial considerando a ideia de metabolismo aliada ao aumento da complexidade desse comportamento.

No sentido de expansão e futuras pesquisas, a estratégia do uso de game ou de gameficação tem se mostrado bastante pervasiva para todos os nichos. Inúmeros aplicativos têm utilizado recursos de gamificação nos seus designs, desde aplicações voltadas metodologias de acompanhamento de produtividade em empresas, uso de serviços como uber e ifood (com pontuação dos prestadores e clientes), aqueles de acompanhamento médico ou de monitoramento de dietas específicas (KASURINEN, KNUTAS, 2018) (ROBSON, et al, 2015). A incorporação de elementos do design de games em tarefas geralmente cansativas tem buscado torná-las mais agradáveis e aumentar o engajamento dos seus usuários. Assim, sistemas de pontuação funcionam como incentivo numa competição com o próprio desempenho, ou como busca de recompensas a partir dos níveis alcançados, por exemplo. A educação é onde mais se observa esse fenômeno, e especialmente na educação infantil esse enfoque já está presente nos anos 1990 nos esboços de Mitch Resnik para o que viria ser o Scratch e ScratchJr, uma linguagem para ensinar programação para crianças (WALTER, 2017).​

Simulações e jogos voltados para o urbanismo também são razoavelmente presentes. Do CityEngine ao CityMaker (BEIRÃO 2012), Urban CoBuilder (IMOTTESJO; KAIN, 2018), e claro, o jogo SimCity. Boa parte das simulações tem a preocupação de gerar cenários. Não obrigatoriamente descrevem uma dinâmica de funcionamento social, mas apresentam basicamente um resultado de massa construída ao se modificarem índices urbanísticos como taxa de ocupação ou gabarito, por exemplo. Com essa produção de cenários, e eventualmente sua gameficação, tem se buscado também o engajamento da população nas decisões urbanas, de legislação a aprovação de instalação de empreendimentos. O Urban CoBuilder é um exemplo desses, um ambiente de realidade aumentada onde se apresentam novos projetos.​

O SimCity, talvez o mais conhecido dos jogos do tema, por vezes é utilizado como estratégia para atrair alunos para as áreas do urbanismo, explorar uma série de conceitos, e em ações com as comunidades locais. Entretanto, Devisch (2008) aponta que o jogo não apresenta uma dinâmica urbana tão real. Para ele, os algoritmos do jogo falham em captar as decisões pessoais, que possuem um alto grau de imprevisibilidade. A nova versão que insere maior controle pelos jogadores das ações dos “cidadãos” da cidade, devem melhorar essa questão. O jogo foi desenvolvido por Will Wright no final da década de 80, baseado no livro Urban Dynamics, escrito por Jay Forrester em 1969. Forrester teria condensado a dinâmica urbana em 150 equações, utilizando da ordem de 200 parâmetros. Baker (2019) explicita que mesmo essa quantidade não alcança ou computa a complexidade da cidade como sistema, e isso tem sido a crítica no uso do jogo como ferramenta de ensino ao longo dos anos. Essa crítica nos remonta a questão da adequada representação do fenômeno por hipóteses e teorias.

Entretanto, complexidade não precisa de uma grande quantidade de equações. Na verdade, a teoria da complexidade aponta que ela surge inclusive de uma baixa quantidade de regras, independente da simplicidade delas. Nesse sentido, nossa proposta se alinha muito mais ao conceito de complexidade emergente. Seguimos Wolfram (2001) nas suas demonstrações dos automata celulares. Para ele, os automata celulares são sistemas de vizinhança entre agentes, representados em uma grid. Cada célula é um agente com certo comportamento com relação aos vizinhos.​

Wolfram (2001) realiza um estudo de cerca de 20 anos com automata celulares básicos: binários (com 2 estados possíveis), unidimensionais (arranjos de vizinhança em linha, apenas num eixo), de vizinhança adjacente (cada célula ou agente possui apenas 2 vizinhos imediatos, um de cada lado), cujo estado futuro depende do próprio estado atual e o dos seus. Apesar da simplicidade aparente, esse conjunto contém todos os tipos de relações possíveis. A complexidade emergente não é comprometida pela simplicidade dos comportamentos ou de variação deles, mas justamente tem nisso a sua origem. Wolfram (2001) avalia a evolução no tempo de cada um dos 256 comportamentos possíveis (ele chama de regras) e identifica estados finais que classifica em 4 tipos: 

  • classe 1: estado homogêneo, 

  • classe 2: estado periódico, 

  • classe 3: estado caótico, 

  • classe 4: estado de estruturas complexas.

 

Estes últimos são os CAS, cujo comportamento evolui na criação, propagação e destruição de estruturas no tempo e no espaço. Esse ciclo de criação (ou emergência) de estruturas, crescimento e destruição, tem sido chamado de criticalidade, por pesquisadores da teoria da complexidade, como West (2011) e outros. Mais especificamente, a criticalidade se refere ao momento limite em que a estrutura atinge seu ápice às vésperas do seu colapso e destruição, levando a uma reorganização do sistema sobre os escombros do anterior. Isto tem sido observado como característica de CAS, seja na forma de sistemas ecológicos ou no ambiente de negócios com surgimento e declínio de empresas, no processo de inovação e substituição tecnológica, com West sugerindo que é também um fenômeno das cidades.

What We've Learned from NKS Chapter 3: The World of Simple Programs

Science and Research Livestreams

21 de fev. de 2022

Wolfram

Unity in 100 Seconds

100 Seconds of Code

7 de mar. de 2022

Fireship

Applications of System Dynamics - Jay W. Forrester

4 de dez. de 2015

James R. Killian, Jr. Lecture Series

Scratch!

2 de jan. de 2019 

Scratch Team

tese de doutorado - daniel lenz costa lima

bottom of page