AUTHOREA
Log in Sign Up Browse Preprints
LOG IN SIGN UP

Preprints

Explore 66,104 preprints on the Authorea Preprint Repository

A preprint on Authorea can be a complete scientific manuscript submitted to a journal, an essay, a whitepaper, or a blog post. Preprints on Authorea can contain datasets, code, figures, interactive visualizations and computational notebooks.
Read more about preprints.

PREreview of bioRxiv article "A generalist pathogen view of diverse host evolutionary...
Sophien Kamoun

Sophien Kamoun

July 31, 2019
This is a review of Caseys et al. bioRxiv doi: https://doi.org/10.1101/507491 posted on June 25, 2019. This study aims at addressing whether coevolutionary models of host-pathogen interactions apply to a generalist pathogen that exhibits quantitative virulence across a broad range of plants. They generated an exhaustive virulence matrix for the nectrophic fungus Botrytis cinerea on 90 genotypes of 8 plant species. They conclude that this pathosystem doesn’t fit traditional arms-race coevolution models with quantitative variation in susceptibility distinct from the phylogenetic relationships between the examined plants.
A Mass and Energy Conservation Analysis of Drift in the CMIP6 Ensemble
Damien Irving

Damien Irving

March 19, 2021
Coupled climate models are prone to ‘drift’ (long-term unforced trends in state variables) due to incomplete spin-up and non-closure of the global mass and energy budgets. Here we assess model drift and the associated conservation of energy, mass and salt in CMIP6 and CMIP5 models. For most models, drift in globally-integrated ocean mass and heat content represents a small but non-negligible fraction of recent historical trends, while drift in atmospheric water vapor is negligible. Model drift tends to be much larger in time-integrated ocean heat and freshwater flux, net top-of-the-atmosphere radiation (netTOA) and moisture flux into the atmosphere (evaporation minus precipitation), indicating a substantial leakage of mass and energy in the simulated climate system. Most models are able to achieve approximate energy budget closure after drift is removed, but ocean mass budget closure eludes a number of models even after de-drifting and none achieve closure of the atmospheric moisture budget. The magnitude of the drift in the CMIP6 ensemble represents an improvement over CMIP5 in some cases (salinity and time-integrated netTOA) but is worse (time-integrated ocean freshwater and atmospheric moisture fluxes) or little changed (ocean heat content, ocean mass and time-integrated ocean heat flux) for others, while closure of the ocean mass and energy budgets after drift removal has improved.
Mellin-Laplace-Fourier Transform and the connection to Riemann Zeta Zeroes
Benedict Irwin

Benedict Irwin

March 30, 2026
DEFINITION The MLF TRANSFORM acts in fixed order: 1. Fourier: \([f(x)](\omega) = } f(x)e^{-i\omega x}dx\), 2. Laplace: \([(\omega)](p) = \int_0^\infty (\omega)e^{-p\omega}d\omega\), 3. Mellin: \([F(p)](s) = \int_0^\infty p^{s-1}F(p)dp\). Thus \[ MLF[f(x)](s) = \!\left(\!\left([f]\right)\right)(s). \] All closed-form results hold in the fundamental strip \[ 0 < \Re(s) < 1 \] unless otherwise specified. SIMPLE EXAMPLES Gaussian Function \(f(x) = e^{-x^2}\) \[ \right](s) = }{s}\,\Gamma\!\left({2}\right) } \] Truncated Power Function \(f(x) = x^{-1/2}_{(0,1)}(x)\) \[ _{(0,1)}\right](s) = \, 2^{1-s}\Gamma(s)\csc\left({2}\right) } \] Exponential-Sine Function \(f(x) = e^{-x}\sin(x)_{x>0}(x)\) \[ \sin(x)\right](s) = 2^{{2}-1}\pi \csc(\pi s)\sin\left({4}\right) } \] Unit Exponential Distribution \(f(x) = e^{-x}_{x>0}(x)\) \[ _{x>0}\right](s) = \pi \csc(\pi s) e^{-i\pi s/2} = {i^s} } \] Cauchy Distribution \(f(x) = {\pi(1+x^2)}\) \[ {\pi(1+x^2)}\right](s) = {\sin(\pi s)} } \] Unit Rectangular Pulse \(f(x) = _{|x|<1}\) \[ _{|x|<1}\right](s) = {s\cos\left({2}\right)} } \] Gamma Distribution $f(x) = {\Gamma(\alpha)} x^{\alpha-1}e^{-\beta x}_{x>0}(x)$, \(\alpha,\beta>0\) \[ {\Gamma(\alpha)}x^{\alpha-1}e^{-\beta x} \right](s) = {\Gamma(\alpha)}\,i^{-s} } \] Valid for \(0 < \Re(s) < \Re(\alpha)\). Beta Distribution $f(x) = (1-x)^{\beta-1}}{B(\alpha,\beta)} _{(0,1)}(x)$ \[ (1-x)^{\beta-1}}{B(\alpha,\beta)} \right](s) = {\Gamma(\alpha+\beta)} {}_2F_1\!\left(s,\alpha;\alpha+\beta;-i\right) } \] Log-Normal Distribution $f(x) = {x\sigma} e^{-{2\sigma^2}}_{x>0}(x)$ \[ (\mu,\sigma)\right](s) = e^{\mu(s-1) + {2}(s-1)^2} \pi \csc(\pi s) e^{-i\pi s/2} } \] Generalized Exponential-Power Function \(f(x) = x^{a-1}e^{-bx^c}_{x>0}(x)\), \(a,b,c>0\) \[ e^{-bx^c}\right](s) = \Gamma(s)\,b^{-s/c} \int_0^\infty }{(c+ix)^s}dx } \] ADDITIONAL EXAMPLES: DELTA DISTRIBUTIONS AND CANONICAL TEST FUNCTIONS Dirac Delta at the Origin \(f(x) = \delta(x)\) \[ \] Shifted Delta Function \(f(x) = \delta(x-a)\), \(a>0\) \[ a^{s-1}\pi\csc(\pi s) } \] First Derivative of Delta \(f(x) = \delta'(x)\) \[ \] Positive Power Function \(f(x) = x^{k-1}_{x>0}(x)\), \(\Re(k)>0\) \[ _{x>0}](s) = \Gamma(s)\Gamma(k)\Gamma(1-k)\,i^{-k-s} } \] Valid for \(0<\Re(s)<\Re(1-k)\). Hyperbolic Secant \(f(x) = sech(x)\) \[ \pi^{1-s}\Gamma(s)\,\beta(s) } \] where \(\beta(s)\) is the Dirichlet beta function. Bessel Function \(J_0(x)\) \(f(x) = J_0(x)_{x>0}(x)\) \[ }{2^{s-1}}\,\Gamma\!\left({2}\right)^{\!2} } \] Delta Comb (Integer Lattice) \(f(x) = }\delta(x-n)\) \[ }\delta(x-n)\right](s) = \pi^{1-s}\Gamma(s)\,\zeta(s) } \] CONNECTION TO ANALYTIC NUMBER THEORY The \(MLF\) transform generates the core building blocks of the RIEMANN XI FUNCTION: \[ \xi(s) = \pi^{-s/2}\Gamma\!\left({2}\right)\zeta(s), \] an entire function encoding the non-trivial zeros of \(\zeta(s)\). The transform \(MLF\) canonically realizes \(\xi(s)\) as a transform of a tempered distribution: \[ MLF[f_\xi(x)](s) = \xi(s). \] The preimage \(f_\xi(x)\) admits a spectral decomposition over the non-trivial zeros \(\rho = \frac12 \pm it_n\) of \(\zeta(s)\): \[ f_\xi(x) = c_\rho\, \delta\!\left(\ln x - \rho\right) = c_\rho\, x\,\delta\!\left(x - e^\rho\right). \] The weights \(c_\rho = 1\) match the residue structure of \(\xi(s)\). This identifies the \(MLF\) transform as a fundamental bridge between integral transforms, distribution theory, and the distribution of the Riemann zeta zeros. Weighted Exponential Dirac Comb Define the weighted lattice of delta functions at exponentially spaced points: \[ f(x) = } x\,\delta\bigl(x - e^{n}\bigr), \] matching the spectral form used for the Riemann Xi preimage, but over integers \(n\in\). For the one-sided convergent version \(f_+(x) = ^\infty x\,\delta(x-e^n)\): \[ ^\infty x\,\delta(x-e^n)\right](s) = \pi\csc(\pi s)\,i^{s-1}\,{1-e^s} } \] The full two-sided comb yields the distributional result: \[ } x\,\delta(x-e^n)\right](s) = \pi\csc(\pi s)\,i^{s-1} } e^{ns} } \] valid in the sense of tempered distributions for \(0<\Re(s)<1\). CONCLUSION FOR THE FIRST SECTION We have presented a complete table of closed-form \(MLF\) transforms for elementary functions, statistical distributions, and Dirac delta-type distributions. The appearance of \(\Gamma(s)\), \(\csc(\pi s)\), \(\zeta(s)\), and delta-comb distributions establishes the natural analytic and number-theoretic importance of this triple composition. ANALYTIC MEANING OF ZETA ZEROS VIA THE MLF TRANSFORM The weighted Dirac comb \[ f_\xi(x) = x\,\delta\!\left(x - e^\rho\right), \] supported at the non-trivial zeros \(\rho = \frac12 + i\gamma\) of \(\zeta(s)\), is not merely a formal expression but admits a rigorous analytic interpretation under the MLF transform. Geometric Origin of the Support \(x = e^\rho\) The Mellin component of the MLF transform uses the multiplicative kernel \(p^{s-1} = e^{(s-1)\ln p}\). For the transform to isolate the zeros of \(\zeta(s)\) as point singularities, the preimage must be supported on points satisfying \[ \ln x = \rho \quad\Longleftrightarrow\quad x = e^\rho. \] The exponential map \(x = e^z\) converts additive complex arithmetic (where zeros reside) into multiplicative geometry on \(_+\), canonically adapted to the Fourier–Laplace–Mellin chain. The Critical Line from Functional Equation Symmetry The functional equation \[ \xi(s) = \xi(1-s) \] induces a reciprocity symmetry on the preimage: \[ f_\xi(x) = f_\xi\!\left({x}\right). \] This implies that if \(\rho\) is a zero, so is \(1-\rho\), and their delta supports satisfy \[ e^{1-\rho} = {e^\rho}. \] Consistency of this multiplicative symmetry forces \[ (\rho) = (1-\rho) \quad\Longrightarrow\quad (\rho) = \tfrac12, \] providing a distributional motivation for the Riemann Hypothesis. Zeros as Cancellation Conditions Substituting the comb into the MLF transform yields \[ \xi(s) = \pi\csc(\pi s)\,i^{s-1} e^{\rho(s-1)}. \] Since \(\pi\csc(\pi s)\) is non-vanishing in the critical strip, the zero condition \(\xi(\rho) = 0\) reduces to an exact cancellation: \[ e^{\rho'(\rho-1)} = 0. \] Each non-trivial zero is therefore a complex frequency where the entire delta-comb spectrum interferes destructively to zero.
Organizational conflict management            
Mehrsa Bakhtiyari

Mehrsa Bakhtiyari

July 27, 2019
Mehrsa Bakhtiyari 1*1 Department of Management, Tehran Markaz Azad University, Tehran, Iran.* Correspondence: mehrsa.bakhtiari@yahoo.com
Effective management  of customer complaints    
Mehrsa Bakhtiyari

Mehrsa Bakhtiyari

July 26, 2019
Mehrsa Bakhtiyari 1*1 Department of Management, Tehran Markaz Azad University, Tehran, Iran.* Correspondence: mehrsa.bakhtiari@yahoo.com
Review: "Reproducible Workflow on a Public Cloud for Computational Fluid Dynamics"
Patrick O'Leary

Patrick O'Leary

July 26, 2019
This is a review of manuscript CiSESI-2019-04-004 submitted to Computing in Science & Engineering: Reproducible Workflow on a Public Cloud for Computational Fluid Dynamics (Lorena Barba and  Olivier Mesnard).Keywords -  reproducibility, cloud computing, computational fluid dynamics, scientific workflows, high-performance computing.
Managing  customer relationship in a digital age            
Mehrsa Bakhtiyari

Mehrsa Bakhtiyari

July 22, 2019
Mehrsa Bakhtiyari 1*1 Department of Management, Tehran Markaz Azad University, Tehran, Iran.* Correspondence: mehrsa.bakhtiari@yahoo.com
Menuju Program Doktor ITB yang lebih solutif: Masukan untuk Panduan Program Doktor Ke...
Dasapta Erwin Irawan

Dasapta Erwin Irawan

July 22, 2019
Terima kasih sebelumnya saya sampaikan karena telah diberi kesempatan untuk memberikan beberapa masukan ke dalam dokumen Naskah Akademik Panduan Penyelenggaraan Program Doktor Kemitraan (PDK) ITB. Berikut komentar saya yang terdiri dari komentar umum dan komentar khusus.Walaupun utamanya ditujukan untuk ITB, tetapi komentar ini sepertinya relevan untuk Perguruan Tinggi lainnya yang juga akan menyelenggarakan program pendidikan riset berbasis kemitraan.Komentar umumPanduan ini sangat diperlukan sebagai rujukan penyelenggaraan PDK di ITB, karena selama ini Program Doktor (PD) di SPS ITB, lebih banyak dikelola atas inisiatif riset personal, baik dari personal mahasiswa, maupun dari personal dosen. Selama ini, dosen lebih banyak mengembangkan pohon risetnya sendiri yang kemudian diterjemahkannya menjadi struktur penerimaan mahasiswa. Setelah itu, dosen umumnya akan pasif berharap akan ada mahasiswa yang mendaftar dan tertarik dengan program riset dosen ybs. Ide riset biasanya muncul setelah ada "call for proposal", kemudian mahasiswa mengikuti setelahnya. Dengan PDK, maka dosen secara aktif dapat mengembangkan pohon riset dengan cara non-konvensional (indikator non-konvensional).Saya menangkap bahwa panduan ini disampaikan dengan intonasi (tone) lebih kuat untuk perguruan tinggi, tercermin sejak landasan penyusunannya (Bab 1) dengan penyebutan peringkat ITB dan yang sejenisnya. Semestinya sebagai program yang berbasis kemitraan, panduan ini perlu fokus kepada kondisi kemitraan riset ITB dengan berbagai pihak dan sejauh mana kemitraan itu dapat memberikan solusi untuk masalah di masyarakat. Saya sangat sadar itu sulit dilakukan, karena selama ini indikator keberhasilkan kemitraan belum pernah diarahkan ke dampak yang riil. Tapi selalu ada waktu untuk langkah pertama dan PDK adalah salah satunya. Mengenai sumber pendanaan, menurut saya secara eksplisit perlu ditulis bahwa PDK dapat menerima pendanaan multi sumber. Ini penting karena sampai sekarang ada kesan pendanaan multi sumber akan berakhir dengan sangkaan pendanaan ganda (satu pengeluaran yang sama diajukan ke dua sumber dana berbeda). Komentar spesifik
Customer Satisfaction Management: A Mini Review    
Mehrsa Bakhtiyari

Mehrsa Bakhtiyari

July 17, 2019
Mehrsa Bakhtiyari 1*1 Department of Management, Tehran Markaz Azad University, Tehran, Iran.* Correspondence: mehrsa.bakhtiari@yahoo.com;Abstract: Customer satisfaction is a measure of the level of happiness a customer derives from a product or service provided. Customer satisfaction measurement involves collection of data on information about the level of satisfaction of a customer about a service. It helps improve service delivery and also serves as a tool for performance assessment. This paper reviews existing studies on customer satisfaction measurement as well as the various tools that have been employed to measure customer satisfaction.Keywords: management; customer satisfaction measurement; performance; service
The Virtual Art World
Carmelo Lombardo

Carmelo Lombardo

July 13, 2019
Come riuscire, nei settori in cui operiamo, a non limitare l’incontro con le opere a una conoscenza storica, formale, di tecniche e strumenti? Come proporre un incontro vivo, vivificante e personale con l’universo artistico? Come favorire un contatto con l’opera che sia portatore di un intimo cambiamento per chi la osserva?  IL METODO IMMAGINALE Il metodo simbolo-immaginale è forse il più antico del mondo: l’attitudine a catturare espressioni della vita e dell’Anima con immagini, ci appartiene dagli albori. L’approccio immaginale che ci arriva oggi, quindi, viene da molto lontano ed è una via che tende a riconoscere nelle immagini il linguaggio dell’Anima. La pedagogia immaginale è un orientamento di ricerca e di pratiche educative che riconosce come suoi antecedenti significativi autori come Henry Corbin, Carl Gustav Jung, Gaston Bachelard, Gilbert Durand e James Hillman, che hanno in comune con una tradizione già presente nella filosofia antica, medievale e rinascimentale la valorizzazione dell’immaginazione creatrice come facoltà conoscitiva. Essa deve il suo atto di nascita a Paolo Mottana1, filosofo dell’educazione, e al suo gruppo di ricerca dell’Università di Milano Bicocca, che, dal 2000 circa, opera per diffondere un tale modello di conoscenza, di comprensione e di azione che trova appunto nel riferimento immaginale e simbolico i suoi principali nuclei di riferimento. La pratica immaginale si fonda sull’idea che l’universo cui ci si accosta, il “mondo immaginale” rappresentato dall’oggetto simbolico prescelto, sia un “cosmo unitario” all’interno del quale si tratta di penetrare ermeneuticamente. Tale operazione presuppone una sorta di epoché metodologica da intendersi come una sospensione del proprio “io”, per fare il più largo spazio all’ascolto-visione dell’opera cui ci si accosta. Tale sospensione del flusso dei propri vissuti proiettivi, delle impressioni, delle riconduzioni alla propria biografia e alla propria esperienza di quanto emerge dall’osservazione e dalla comprensione, è da intendersi come un vero e proprio atto di “fedeltà”, cioè di attenzione devota e prolungata alle intenzioni significanti dell’opera considerata nella sua intima espressività. Fedeltà all’immagine significa motivazione a percorrerla con rispetto , nel senso etimologico del riguardo, guardare e riguardare, instancabilmente, tornare sulle prime viste per verificarle, approfondirle, decostruirle, in uno sforzo ricorsivo che cerca il volto dell’oggetto, la sua intenzionalità significante, la sua imponderabile rivelazione.La disposizione nei confronti dell’opera ha dunque la caratteristica di una progressiva immersione in essa, il cui accesso appare regolato proprio dalla dismissione della modalità “frontale” dello sguardo “netto” di chi riconduce il dato all’interno del sistema di assi cartesiano della conoscenza. Ogni opera ha un suo margine più o meno cospicuo di segretezza e impenetrabilità, ha un suo codice, e soprattutto una sua intenzionalità, che deve essere accolta e che presuppone la massima attivazione di una disposizione ricettiva, nel senso della disponibilità a ricevere l’altro che si manifesta come una presenza. Questa impenetrabilità è spesso legata proprio al modo, alla posizione che la mente adotta di fronte all’opera. La posizione frontale, troppo orientata a sciogliere i dilemmi, a cercare rigide interpretazioni, spesso riduttive e schematiche, la posizione poco disposta all’erranza, e soprattutto che non tollera una lenta maturazione, mediata dall’abbassamento delle aspettative, dalla pazienza, dalla accettazione dell’inspiegabile, si rivela non adeguata. Occorre un quieto e paziente dissolvimento dell’io a favore dell’oggetto contemplato, una piena disposizione ad accogliere l’intenzionalità soggettiva dell’opera, affinché si possa trovare quella posizione da cui essa svela il proprio potenziale simbolico e trasmutativo. Si intende con ciò la determinazione ad abolire l’espressione (anche interna, fin dove possibile) di giudizi di valore rispetto all’opera. Si intende qui l’atto elementare di approvazione o disapprovazione perlopiù legata a moti immediati di tipo emozionale o all’adozione meccanica di schemi di valutazione precostituiti. Ogni commento di tal genere condiziona, altera irrimediabilmente e suscita una dinamica che invece di aprire alla presenza dell’oggetto, la perde, sostituendogli una rinnovata autocentratura. Il lavoro di ricerca e di immersione nel campo immaginale deve restare un lavoro di umile sottomissione all’intenzionalità dell’opera e chiede un’incondizionata apertura alla sua espressività simbolica, che ogni giudizio immediatamente compromette e riduce. L’atto di contemplazione e comprensione immaginale richiede, in un certo qual modo, una fiducia profonda nell’immagine, e una disposizione devotamente ma anche straordinariamente curiosa, instancabilmente volta alla ricerca. 1. VISIONE Nell’approssimarsi all’oggetto è necessario attraversare alcune fasi, che costituiscono i principi dinamici dell’operatività immaginale. Tali fasi in certa misura ripetono e ripercorrono la sequenza dell’operatività immaginativa dell’artefice, recuperandone quindi in un certo qual modo, secondo una modalità riflessiva in senso etimologico, l’impianto processuale. Il primo passaggio, analogamente a quello dell’artista che si pone davanti al dato grezzo, al dato reale, è la “visione”. La visione è essa stessa un paziente lavoro di spoliazione dello sguardo affinché ne sia massimamente potenziata la ricettività; è una sorta di ritorno alla cosa. La visione vede grazie al fatto che il vedente si spoglia, si dissolve come soggetto di giudizio, si apre ad uno sguardo disponibile all’ambivalenza delle immagini; è abbandono dello sguardo all’interno dell’opera: diventare solo sguardo, farsi cosa. E deve essere un esercizio sufficientemente lento, concentrato, iterato, perché in questa fase ci si scontra con la difficoltà a superare le abitudini, gli ostacoli al vedere, i punti ciechi. È necessario sprofondare, lasciarsi andare, l’atmosfera deve essere protetta, tutto deve convergere nel propiziare la concentrazione verso l’oggetto: luogo, temperatura, luminosità, rumore. Ogni elemento esterno può favorire o ostacolare questo momento così prezioso di con-discendenza nel mondo immaginale, e deve essere rigorosamente sorvegliato da chi organizza l’esercizio. 2. MEDITAZIONE Alla visione succede una fase di meditazione. La meditazione è prima di tutto un’operazione di impastamento, di triturazione, di fluidificazione e concrezione ripetuta, perseverata, alternata. E si svolge silenziosamente all’interno del soggetto. Richiede concentrazione, distensione, reclama non tanto una strutturazione cognitiva, quanto una piena integrazione organistica. L’immagine entra a contatto con le fibre del soggetto, con i suoi processi viventi, circola, scende, penetra in profondità, e occorre favorire questa discesa, scendendo con essa, lasciandosi allargare, entrando in simbiosi. La meditazione in questa fase non è ancora cognizione in senso pieno. È un principio di cognizione, è una precognizione, una elaborazione lenta dell’immagine nella cavità oscura del soggetto.In un secondo momento la meditazione comincia a secernere una configurazione, o molteplici configurazioni: un abbozzo di nominazione, designazioni, descrizioni, primi nuclei interpretativi. Alla meditazione occorre un tempo adeguato, ma non eccessivo. 3. CIRCOLAZIONE La visione “discesa”, approfondita, meditata, a un certo punto inizia a manifestare alcune timide emergenze. La scrittura prende atto di queste prime visioni. Si accede allora alla fase di “circolazione”. In essa si lasciano fluttuare i primi frammenti di interpretazione. Ma soprattutto si scambiano e si coltivano, attraverso appunto un movimento circolare, analogie, metafore, associazioni. La materia della visione, che era scesa nell’oscurità di una respirazione corporea, animale, emozionale, vibra ora di riflessi più spirituali, appaiono idee, intuizioni, figure.Lontano da ogni censura e da ogni eccesso di orientazione, ciascuno offre gli elementi della sua riflessione allo stato ancora primitivo, rudimentale, parcellare, senza spogliarli troppo della loro approssimatività. Tale operazione è anch’essa lenta, graduale, richiede paziente ascolto. 4. RESTITUZIONE Infine il flusso delle interpretazioni e delle metaforizzazioni si placa ed emerge una visione profondamente rinnovata e approfondita dell’oggetto. È una visione complessa, iridescente, generativa. L’oggetto è come avvolto in un reticolo di significati e di nuove immagini che la circolazione ha generato e chiama ad una “restituzione”. La restituzione è in realtà la nuova discesa verso la concretezza che la visione ormai quintessenziata promuove. La prima materia (visione ingenua e visione rigida) completamente dissolta, sedimentato e acquisito il potere simbolico espresso dall’immagine, sollecitata la capacità trasmutativa dell’immaginazione creatrice sulle orme di quella attinta all’oggetto, la restituzione è soprattutto atto moltiplicativo, proliferazione di significati, ritorno a un reale deletteralizzato. Il reticolo simbolico dell’opera, il suo radicamento archetipico e la congiunzione interminabile dei suoi orizzonti, liberano una capacità di sguardo trasformatrice. Le cose, attraverso il prisma dell’opera interiorizzata, risultano animate, approfondite, sprigionano senso. Cos’è la fruizione di un’opera se non la forma d’arte più evoluta? Per rispondere a questa domanda possiamo guardare al passato e in particolare ad uno studioso, Rudolf Arnheim2 (che si e dedicato per anni all’analisi di alcune tra le opere più rilevanti del ‘900). Cosa sia di preciso una creazione o un atto creativo e quanto ciò sia osservabile o documentabile e questione sempre aperta e, ai fini del nostro discorso, e anche una questione centrale.Arnheim, in: Guernica. Genesi di un dipinto3, diceva:“Non è possibile avere accesso diretto alla mente di nessuno salvo che alla propria, e come, anche della propria mente, si conoscano solo gli strati superficiali. Come si farà, allora, a scoprire ciò che accade quando un’opera d’arte viene creata? Possiamo, ovviamente, prestar ascolto a quanto l’artista riferisce di sé stesso - anche questo non basta…ma l’opera resta” . L’opera resta in qualità di traccia e si presenta a noi, osservatori contemporanei, come un punto di partenza carico di nuove possibilità espressive. All’interno di un Museo d’Arte moderna e Contemporanea, lo spettatore è a contatto diretto con l’opera e la possibilità di fruizione oggi ha sempre più spesso a che fare con un “rapporto ravvicinato” arte-spettatore. L’idea è che l’arte, (oltre ad esistere di per sé come oggetto) continui a scaturire dall’incontro dell’artista, tramite la sua opera, con il pubblico. Non una volta sola e in modo definitivo, ma ripetutamente e continuamente. Oggi l’arte genera e si rigenera attraverso il suo pubblico, cosi come il pubblico genera e si rigenera attraverso l’arte. Guardando agli ultimi lavori di Marina Abramović, un esempio su tutti a testimonianza dell’ibridazione arte-pubblico, è riscontrabile come il fattore umano possa essere messo in campo alla pari di altri “componenti” funzionali dell’opera e anzi, quasi a dire, che la percezione è parte vitale di un’opera d’arte.La percezione è costruzione, e interpretazione. Un fenomeno a cui stiamo assistendo sempre più spesso, ultimamente, è quello delle mostre senza opere originali, che propongono nuovi approcci alle opere d’arte attraverso quelle che vengono descritte come esperienze “immersive” e “totali” nella pittura di questo o quell’artista, scelto tra i più popolari e suggestivi: Caravaggio, Van Gogh o Chagall. Si tratta di spettacoli multisensoriali di video-installazioni accompagnate da concerti di suoni e odori che, insieme alle avveniristiche ricostruzioni tridimensionali usate come supporto didattico nelle mostre tradizionali, e agli stupefacenti lungometraggi cinematografici realizzati con sequenze di fotogrammi che imitano la maniera di un artista, testimoniano un cambiamento del nostro sguardo: l’occhio non sembra accontentarsi più dell’immagine apparentemente statica di una superficie pittorica, da solo non è in grado di veicolare l’introiettarsi del dato visivo al di qua del nervo ottico nella pellicola impressionabile della nostra percezione, dove avviene ogni volta una rinnovata intuizione, ma richiede qualcosa di più coinvolgente. Già da qualche anno si sta diffondendo anche in Italia un tipo di mostra che in realtà non è una vera e propria mostra. Un evento espositivo che fonde l’arte con la tecnologia, che esibisce riproduzioni di opere in formato digitale, con maxi schermi o proiezioni, a volte anche animate. Questo tipo di esposizione spesso itinerante, si avvale di tecnologia molto avanzata, che permette di riprodurre le opere ad un’altissima risoluzione accompagnando la visita con animazioni, musiche, suoni, ricostruzioni delle ambientazioni o scenografie. In alcuni casi, è possibile anche scaricare un’app per contenuti ed esperienze aggiuntive, o ancora utilizzare il visore VR per una maggiore sensazione di coinvolgimento nell’opera d’arte. Gli eventi di questo tipo sono a mio parere un’interessante novità, sicuramente diversa dall’ammirare l’originale di un’opera d’arte, ma con alcuni non trascurabili vantaggi, tra cui la possibilità di avvicinarsi e scoprire opere ed artisti che ancora non si conoscono o si apprezzano in maniera meno formale e più dinamica. Un’esperienza suggestiva, adatta a tutte le età, che affascina per la capacità di unire vecchio e nuovo, portando il visitatore a viaggiare con i propri sensi nel tempo e nello spazio.Nell’arte multimediale possiamo distinguere due ambienti tecnologici: il primo è la realtà virtuale grazie alla quale è possibile interagire con un ambiente artificiale modificabile attraverso stimolazioni. L’interazione può essere non immersiva o immersiva, ovvero quando è provocata dall’uso di strumenti che il fruitore deve indossare. Il concetto di esperienza multisensoriale entra così, prepotentemente, nell’attuale ricerca artistica. L’opera viene totalmente affidata al fruitore come processo e non più come una realtà compiuta e immutabile. Tale rivoluzione è accostabile alla teoria dell’opera aperta,4 formulata in un saggio del 1962 da Umberto Eco5. Secondo Eco l’opera appare sempre diversa in quanto non compiuta e necessita dell’apporto (emotivo, intellettivo, creativo) di colui che la osserva per essere portata a compimento. Al concetto benjaminiano che vedeva nelle nuove tecnologie un fattore di democratizzazione per l’arte, si affianca, grazie alla virtualità, quello di opera d’arte aperta.Il secondo ambiente tecnologico è quello delle reti telematiche e lo spazio di comunicazione in cui i fruitori possono interagire viene definito cyberspazio.Utilizzare la rete per creare arte, elaborando percorsi ipertestuali e multimediali, in cui vari individui possano interagire tra loro in tempo reale è un aspetto del cyberspazio.Roy Ascott, pioniere della cibernetica, della telematica e dell’interattività nell’arte, è autore di alcuni dei più importanti progetti di questo tipo per la rete. Per questo artista e per altri come lui il museo e la galleria d’arte hanno ormai lasciato il posto all’universo informatico di internet.Il passaggio da un universo naturale ad un universo tecnico è evidente. Ciò che interessa non è più l’opera compiuta, ma il processo, in una concezione più antropologica e sociologica che riporta all’attualità la poetica Fluxus6 di creatività come fatto sociale. La rivoluzione apportata dal digitale ha ovviamente favorito tutto ciò. Fa riaffiorare anche in questo ambito il sogno dell’opera d’arte totale, ovvero un’esperienza perennemente modificabile dall’artista e dal fruitore. Il rischio di questa prospettiva è paradossalmente una contrazione esponenziale di opportunità che trasforma il cyberspazio in “un universo chiuso e autoreferenziale che sbarra l’orizzonte del possibile restituendocelo sempre meno come una sfida della libertà, un’esposizione all’evento, e sempre più come qualcosa che coincide con l’innovazione tecnica della Tecnica”. Un ulteriore rischio di questa prospettiva è comunque quella di una ipervalutazione di questo medium promosso a strumento per un’immediata autolegittimazione dell’opera, un pericolo che rischia di trasformare l’esperienza artistica nel regno della mediocrità socialmente condivisa. Le sperimentazioni in campo artistico adoperanti il computer hanno inizio nei tardi anni Sessanta e si sviluppano in particolar modo nella computer grafica e nell’animazione, ma è grazie agli sviluppi della tecnologia digitale nell’ultimo decennio del Novecento che il computer si attesta come insostituibile strumento creativo. Il discorso sul trattamento digitale può portare molto lontano e per affrontare questa realtà in funzione di questa trattazione è opportuno ripartire dal concetto di fotografia e sottoporlo ad una nuova riflessione critica in quanto ancora anacronisticamente accostata all’ambito della verosimiglianza. Questo approccio appare oggi estremamente limitativo. È indubbio, infatti, che anche in una fotografia tradizionale intervengono una serie di scelte che prevedono una presenza autoriale. L’intervento dell’umano intelletto è, seppure in termini diversi ed in misura certamente minore, l’attuazione di una valutazione soggettiva. Un margine di intervento entro il quale il fotografo poteva personalizzare il risultato è sempre esistito ma, oggi, i mezzi digitali rendono la possibilità di manipolazione tanto ampia da giungere ad un prodotto che può trascendere radicalmente dall’originale, irrimediabilmente diverso da esso. Inoltre il digitale permette una riproducibilità immediata ed illimitata a qualità costante. La digitalizzazione si frappone fra i nostri occhi e il reale aspetto del mondo e la veridicità fotografica viene, a causa di tale rivoluzione, a mancare. Una fotografia ottenuta con procedimento digitale non può essere considerata come evidenza di qualcosa che le è esterno. La simulazione figurativa digitale ha privato la fotografia della sua autorevolezza raffigurativa proprio come nel secolo XIX, la fotografia aveva intaccato la pittura, ma questa volta la questione della rappresentazione è completamente trascesa. L’opinione che lega il concetto di fotografia al concetto di realtà oggettiva è rimasto immutato per anni, ed è ancora oggi strutturato nel nostro patrimonio culturale. L’avvento delle tecnologie digitali hanno minato tale fedeltà, facendo così decadere sia la veridicità dell’immagine fotografica, in quanto risultato di una serie di operazioni artificialmente influenti sull’esito finale, sia hanno nuovamente minato la paternità autoriale dell’opera, soprattutto in quanto quest’ultima non è necessariamente attribuibile ad un’unica persona. Le nostre capacità percettive si sono, di conseguenza, rapidamente modificate per adeguarsi ad un nuovo concetto di realtà a fruizione eminentemente visiva: ma è d’obbligo dubitare di ciò che si vede ed è fondamentale essere consapevoli che la realtà può essere manipolata. Perciò é indispensabile dotarsi di un nuovo atteggiamento mentale nel rapporto con i mezzi digitali: le immagini che ci vengono quotidianamente sottoposte non sono necessariamente coerenti con la realtà, non sono scontatamente vere, al contrario sono spesso radicalmente ed intenzionalmente alterate. Le tecnologie digitali, infatti, assecondano la manipolazione delle immagini di un mondo che, per ragioni varie e complesse, tende verso una progressiva perdita dei contatti con la realtà fisica. Parlando, infatti, di rivoluzione digitale è riduttivo limitarsi a considerare unicamente il campo tecnologico: tale rivoluzione sta configurando un nuovo modello sociale in cui il virtuale si sostituisce alla realtà. Un processo già denunciato da Jean Baudrillard: Il virtuale ha ucciso la realtà. Senza lasciare tracce7.I nuovi formati digitali si caratterizzano per l’estrema leggerezza, col chiaro obbiettivo di voler ridurre l’enorme quantità di dati relativi a questo tipo di informazioni a un valore agilmente gestibile dai mezzi informatici. In quanto alla circolazione digitale il World Wide Web si attesta come il mezzo più capillare. Lungo miliardi di fili corrono le informazioni sotto forma di parole, suoni, immagini e ora video grazie alla banda larga, alle fibre ottiche e le nuove tecnologie di trasmissione. Mentre sul piano estetico è evidente come il Web abbia imposto il documento multimedia/interattivo come nuovo standard di comunicazione e come abbia ridimensionato le prospettive spazio-temporali evitando che l’opera d’arte venga incentrata su coordinate preferenziali.Diffusi fenomeni come le gallerie d’arte digitale, per esempio, liberano gli artisti dal condizionamento dei tradizionali canali di diffusione, un fenomeno che può essere visto idealisticamente come incompatibile con l’odierna mercificazione dell’arte e, a dirla come Benjamin8, definito anche per questo il padre di internet, anche il web ha agevolato, democraticamente, il rapporto delle masse con l’opera d’arte. Altre esperienze, comunque alquanto autoreferenziali, come itelematic networkings (operazioni in rete computerizzata), eliminando la tradizionale dicotomia fra artista e spettatore, offrono mezzi ed opportunità per partecipare ad un evento creativo che implica per sua natura non solo uno scambio di comunicazioni e idee, ma il diretto coinvolgimento di più persone, da luoghi e ruoli diversi, i quali concorrono alla creazione del significato, che conseguentemente diventa un evento che accade, dissolvendo in questa empirica circostanzialità ogni residua pretesa autoriale. La dissoluzione di ogni oggettività del significato diventa, nella teoria delle “arti tecnologiche”, anche un’istanza di carattere estetico. Essa conduce, come visto, in primo luogo alla dispersione della paternità autoriale, in quanto l’autore del flusso informativo-immaginale è frantumato e disperso su tutta la rete, ma ciò non implica necessariamente che esso debba trasformarsi in un’entità collettiva anonimizzante. Per i suoi sostenitori il telematic networking mira ad amplificare le istanze individuali del pensiero e dell’immaginazione, esaltando quella soggettività della percezione dal cui grado di interazione nel sistema comunicativo dipende in larga parte il processo di formazione del significato. In secondo luogo, quella stessa dissoluzione converte l’opera in un mutevole ed immateriale “scambio creativo”, ribadendo così un principio chiave di tutta la contemporaneità: l’opera è incompiuta senza l’apporto del fruitore. Esperienze di questo genere si pongono come espressioni di una certa cultura postmoderna che fa della mutevolezza e dell’immaterialità dei significati, come pure dell’inesauribile possibilità di mediare fra dati diversi, il paradigma del mutamento culturale presente, in specie della transizione verso uno stadio di ubiquità transdisciplinare che porterebbe a ridimensionare le pretese assolutistiche delle singole discipline conoscitive. Le opere virtuali esistono in potenza ed hanno la teorica possibilità di concretizzarsi in una rappresentazione per immagini basata sulla simulazione del reale mediato da mezzi elettronici. Prodotto di una sofisticata tecnologia che sta gradatamente infiltrandosi non solo nella vita pratica ma anche nelle modalità percettive, la creazione artistica digitale, frutto dell’ibridazione uomo-macchina, deve essere fruita mettendo in atto percorsi cognitivi che, seppur nuovi nell’analisi estetica, sono tuttavia quelli che governano il nuovo sistema derealizzato di pensiero che l’uomo utilizza. I nuovi percorsi cognitivi, infatti, mettono in grado il fruitore di recepire correttamente la progressiva integrazione della tecnologia nell’opera d’arte: mezzo per favorire l’instaurarsi di nuovi processi comunicativi e culturali. La storia dell’arte del secolo passato è, come visto, notevolmente influenzata dall’avvento delle tecnologie. La premessa di quanto oggi sta accadendo ha le sue radici concettuali in un’idea di arte che sfugge da ogni oggettualità, che richiede una partecipazione dell’osservatore per essere compresa, che identifica il processo artistico nella decontestualizzazione dell’oggetto convertito in opera d’arte. Concetti presenti proprio a partire dalle avanguardie storiche del primo Novecento. Paradigmatica è la poetica dadaista della casualità che vincola l’osservatore ad una rilettura dell’oggetto sacralizzato dall’intervento dell’artista. Quest’ultimo sottrae l’oggetto alla banalità del quotidiano trasformandolo in opera d’arte. Il concetto si può accostare anche alla Pop Art, agli Happening, alla Body Art che finiscono per assottigliare il contenuto dell’opera d’arte fino ad eliminarlo del tutto.È palese come nell’arte concettuale ci fossero già indicative anticipazioni del digitale inteso come flusso comunicativo e linguaggio non oggettuale che ha bisogno di essere fruito per esistere. Il rapporto fra realtà e apparenza non riguarda soltanto la cosiddetta realtà virtuale e gli aspetti tecnici della digitalizzazione in quanto ci si trova ad affrontare aspetti innanzitutto sociologici. L’informatizzazione di massa dei processi relazionali e le applicazioni telematiche, onnipresenti in ogni settore, portano a considerare le dimensioni di questo fenomeno e l’inarrestabile sovrapposizione di un sistema virtuale ad un sistema reale. Il concetto di simulacro, oggi strettamente connesso alle tecnologie di produzione e simulazione d’immagine, implica il rifiuto di un prototipo esterno e la tentazione di considerare l’immagine come un prototipo, e trova la sua massima realizzazione nell’esperienza virtuale. La realtà virtuale non ha bisogno di simboli per evocare significati o richiamare memorie storiche, ma di simulacri. Chiarisce bene l’antitesi Perniola9 spiegando come il termine tedesco Sinnbild , che vuol dire appunto simbolo, rimandi ad una ricchezza, ad una inesauribilità del significato (Sinn) a cui l’immagine (Bild) rinvia. Tutta l’immagine contemporanea non è più un Sinnbild , ma un Trugbild , l’immagine che rinvia ad una simulazione, ad una mancanza di realtà, di senso, di fede, in una parola un simulacro. Il percorso che porta alla dematerializzazione e alla virtualità è relazionabile all’evoluzione stessa del pensiero filosofico in quanto, la virtualità, si può intendere in continuità con tutti quei processi di astrazione che caratterizzano molto del pensiero teoretico. Il tentativo di svincolarsi dall’oggettualità e dall’empiricità significa anelare l’idea che nella virtualità diviene ombra. Il valore conoscitivo dell’ombra è dubbio in quanto il suo valore è limitato all’apparenza. Ritorna qui il concetto di mimesis10 che affonda le proprie radici nella filosofia di Platone e Aristotele. Per Platone, la mimesi è produzione di immagini, che possono avere origine divina (è il caso dei sogni) o umana. Nella Repubblica11 considera la mimesi negativamente, riferendosi alla tragedia, alla commedia e all’epica, in quanto producono pallide imitazioni di eventi e realtà del mondo sensibile, che a loro volta non sono che copie imperfette del mondo delle idee. Imitazione d’imitazione quindi. Aristotele definisce ogni forma di poesia come mimesi. Riferendosi alla mimesi drammatica della tragedia osserva il suo potere di operare similmente alla natura. La rappresentazione del conflitto quotidiano degli uomini con gli dei e con il destino produce sullo spettatore un effetto di purificazione delle passioni che normalmente condizionano la sua percezione del reale. Lo conduce a considerarle con distacco. Il piacere estetico si identifica proprio in questa liberazione dell’animo dalle passioni e dalle paure, che permette poi di osservare con sguardo critico le contraddizioni del reale. Queste considerazioni possono aiutare a considerare la virtualità come un insostituibile contributo che permette di comprendere e meglio definire non tanto la realtà, ma le immagini della realtà: il valore obiettivo delle rappresentazioni. La virtualità, non intesa come platonico inganno ma come aristotelica catarsi, può rimettere in discussione e definire l’efficacia di ogni sistema di astrazione.L’artista, sottraendosi al rischio di un’autocelebrazione delle proprie competenze tecnologiche può, legittimamente, figurare la sua mimesi nella virtualità. L’artista demiurgo ha la capacità, infatti, di far uso di ogni tecnica e tecnologia in totale libertà creativa in quanto possiede un’attitudine conoscitiva capace di rendere le nuove possibilità di cui dispone oggetto stesso di comunicazione. L’opera, ormai concepita come flusso comunicazionale, non ha o non ha più un’esistenza oggettuale: non può essere presentata nei luoghi tradizionalmente destinati all’esposizione e non può essere commercializzata se non nella sua riproduzione tecnica. L’opera non può essere conservata se non come traccia tecnologicamente costruita e non può essere esclusivamente posseduta perché immateriale o, meglio, inesistente. Dell’opera intesa come evento resterà solo un residuo “virtuale” da attivare all’occorrenza. Si potrebbe quindi definire virtualità anche il nuovo rapporto dematerializzato dell’uomo con la realtà.L’interattività è una delle principali tematiche della produzione artistica contemporanea mirante al coinvolgimento dello spettatore nella genesi dell’opera. Le tecnologie interattive sono sostanzialmente basate su sistemi multimediali facenti uso di connessioni di rete che rendono disponibili fonti d’informazioni accessibili in tempo reale e/o di ambienti tridimensionali detti realtà virtuale che costruiscono una realtà artificiale sempre predisposta ad una nuova immersione da parte dell’utente. L’interattività si caratterizza innanzitutto per avere una base visiva che permette all’utente di interagire consentendogli di strutturare molteplici percorsi che senza il suo intervento rimarrebbero potenziali. Le tecnologie interattive si qualificano, quindi, come flussi comunicativi che hanno bisogno di un fruitore attivo. Ciò li diversifica totalmente da media come cinema e televisione, anch’essi a base visiva, ma il cui utente è fondamentalmente un fruitore passivo di qualcosa che altri hanno ideato. Ma l’idea di arte interattiva può apparire ambigua soprattutto in relazione all’uso del termine “interattiva”. Questo termine, usato anche in relazione alla computer art, è una tautologia in quanto qualsiasi attuale interfaccia uomo-computer è interattiva per definizione: qualsiasi moderna interfaccia permette all’utente di controllare e manipolare in tempo reale l’informazione mostrata sullo schermo. Una volta acquisita da un computer l’immagine diventa automaticamente interattiva e chiamare arte interattiva l’opera elaborata mediante computer è la semplice affermazione di una delle caratteristiche basilari del computer. Nell’opera interattiva ritorna nuovamente, portata all’estremo, l’idea dadaista e duchampiana che vede infranta la rigida bipolarità fra artista e spettatore a favore di una continua dialettica che definisce, grazie alla partecipazione attiva di entrambi, l’opera d’arte. Quest’ultima esiste in quanto viene percepita, l’opera non risiede quindi nell’oggetto, ma nel processo dinamico che si instaura fra chi la crea e chi la fruisce. Non vi è più un’entità fisica con proprietà aspettuali, ma un contesto dinamico che si apre a partire dalla fruizione dell’opera d’arte. Questo è, tutt’oggi, ciò che avviene nell’arte elettronica: l’artista innesca processi affini a quelli teorizzati da Duchamp cimentandosi con quei linguaggi che costituiscono lo stadio più avanzato del processo tecnologico. Di particolare interesse in questo senso sono le sperimentazioni di Studio Azzurro12 che mirano a mettere in relazione immagine elettronica, ambiente e partecipazione dello spettatore. Quest’ultimo è invitato a scoprire, attivando un processo che unisce al coinvolgimento un’assunzione di responsabilità di tipo nuovo nei confronti dell’opera, le regole del gioco interattivo. Oggetti e figure immateriali si animano in virtù del controllo di dispositivi che agiscono conseguentemente ai movimenti di chi si accinge all’opera. L’interattività permette al fruitore di elevare il proprio stato, di attingere a possibilità percettive capaci di accrescere le proprie capacità sensoriali. L’ambiente elettronico, sempre disponibile all’“immersione” , ha la proprietà di far riscoprire percettivamente immagini e suoni: lo spazio dell’opera si modella plasticamente, diventa acustico, tattile, l’osservatore vi si immerge, entra in uno stato alterato, sensorialmente amplificato. Ma l’opera interattiva si caratterizza soprattutto per il ricco e continuo scambio di linguaggi avvolte volutamente stridente, generando pratiche ibride, multimediali, dette Responsive Environment . Nell’attuale dibattito sopra i nuovi media interattivi, riguardante i sistemi informatici e il loro utilizzo e le possibilità e le implicazioni dell’interattività, troviamo argomenti antitetici. Alle tendenze utopiche si contrappongono tendenze disfattiste con motivazioni che si mostrano ovviamente contrarie e irrimediabilmente inconciliabili. Da una parte si promette la possibilità di un utilizzo emancipatorio dei nuovi mezzi: paradigmatico è ciò che prefigurò, all’inizio degli anni Trenta per la radio diffusione Bertolt Brecht, per il quale la radio avrebbe dovuto trasformarsi da un apparato di distribuzione ad un apparato di comunicazione, il ricevente avrebbe dovuto trasformasi in mittente. D’altra parte la tecnologia tende verso un’automatizzazione alienante che minaccia molte sfere del lavoro umano e verso un’invasività sempre più capillare, sintomatica di una tecnologia sempre più soggiogante. Secondo quest’ultima impostazione, heideggerianamente, l’essenza della tecnica sfugge al dominio dell’uomo e si contrappone a lui come un Gestell , un’imposizione.Il mutamento culturale del secolo scorso ha caratterizzato fortemente la percezione del mondo della tecnica da parte degli artisti influendo certamente sulle loro opere e sul loro pensiero. L’uso di un programma di video montaggio o qualsiasi altro mezzo tecnologico non muta il lavoro dell’artista che resta comunque estetico, divenendo tale in virtù di una relazione estetica. Nella continua diatriba riguardante le possibilità tecnologiche, le attitudini più disfattiste vedono nelle realizzazioni artistiche mediante tecnologia un basso indice di utilizzabilità soggettiva, ovvero un condizionamento che mina la libertà poietica dell’artista. Ma il ruolo dell’artista non è venuto meno e le nuove tecnologie hanno probabilmente solo accentuato la componente non oggettuale dell’opera d’arte. Anche il concetto di “stile”, inteso come momento fondamentale di ogni singola personalità artistica non è venuto meno, ma si fa estremamente più complicato estrinsecarlo in quanto il contenuto dell’opera dipende ora, oltre che da fondamenti filosofici, da fondamenti semiotici. Storicamente la forma video coincide con due fenomeni correlati: la smaterializzazione dei processi artistici e la nuova attenzione alle problematiche sociali. La qualificazione in termini estetici di questo fenomeno va comunque ricondotta alla maturazione in senso “ambientale” dell’opera d’arte, accostabile all’idea duchampiana d’arte come processo dinamico, ciò implica una radicale modificazione del concetto artistico di ambiente che, in quanto ricondotto alla struttura complessiva della società, diventa anche “spazio sociale” della prassi artistica. Di conseguenza l’esperienza artistica diviene fisica, ma non oggettuale. Sono numerosi i creativi che si sono cimentati col video creando, nella fisicità delle loro installazioni, il proprio spazio artistico. L’estrema quantità di queste sperimentazioni e la programmatica ricerca dello shock visivo porta però spesso a rappresentazioni di dubbio gusto che di artistico mantengono solo l’intento. Pochi, invece, sono gli artisti che si sono cimentati con le potenzialità percettive proprie del medium elettronico e, tra questi, nessun artista come Bill Viola13 ha colto così profondamente le straordinarie possibilità creative del mezzo elettronico come dispositivo per farci vedere con occhio interiore oltre l’apparenza del visibile. Bill Viola è l’artista che più di ogni altro induce nello spettatore, emotivamente coinvolto, una riflessione sulla precarietà e labilità della realtà “oggettiva” di cui sa essere parte, facendo leva sull’immediatezza della percezione prima che l’intelletto proceda a una rassicurante elaborazione logica. Prima che il fruitore si distenda davanti all’immagine simulacro a cui è abituato. L’avvento di un nuovo statuto dell’immaginario sempre più virtualizzato porta ad una disputa sull’immagine prodotta dai nuovi media e sull’operare artistico che di questi nuovi media si serve. La critica d’arte contemporanea tenta di far fronte all’innovazione tecnologica assimilandone talvolta la logica eminentemente mediatica oppure contrapponendo categorie che possiamo ricondurre al pensiero di Martin Heidegger14 che vedono l’uomo perennemente incapace di comprendere l’essenza della tecnica, un’impostazione che lascia più che mai l’arte radicata nella lontananza dell’Essere. La téchne15, concernente ogni dimensione produttiva del fare, appartiene all’ambito della poiesis16 e ciò può essere pacificamente compreso per quell’arte superiore che era l’arte dell’Umanesimo, ma questa convergenza di senso fra fare tecnico e fare poietico, per il filosofo tedesco, non può valere per la tecnica moderna. Per Heidegger, infatti, il destino della tecnica è piuttosto quello di oscurare e mascherare nel suo carattere di imposizione il senso della poiesis. Il dubbio sulla possibilità di fare arte è ormai radicato nell’esperienza contemporanea. Una delle ultime grandi opere d’estetica, la Teoria estetica di Adorno conferma così come l’arte abbia perduto ogni sua ovvietà: “È ormai ovvio che niente di ciò che concerne l’arte è ovvio né nell’arte stessa né nel suo rapporto col tutto; ovvio non è più nemmeno il suo diritto all’esistenza”. Le speranze utopiche che si prefiggono la totale assunzione dell’orizzonte tecnologico come immensa possibilità poietica si confrontano con tale giustificata perplessità. Comprendere le nuove tecnologie e attingere alle nuove possibilità percettive ma soprattutto comunicative offerte, vuol dire anelare al superamento di tale disagio. Richiamare ancora Benjamin permetterà di andare oltre tale perplessità in quanto egli non riconosce hegelianamente la morte dell’arte, ma la rinuncia dell’arte ad essere deposito tradizionalmente oggettivo di verità. Le tesi benjaminiane si sono dimostrate di una straordinaria pertinenza e lungimiranza durante l’intera trattazione nel descrivere, con molti anni di anticipo, il fenomeno dell’esteticità diffusa che oggi è sotto gli occhi di tutti. La sua indagine estetica è dunque, in primo luogo, una ricognizione sullo statuto dell’immagine e sul concetto di opera che comincia a cedere il passo a fenomeni nuovi e irriducibili alle categorie dell’estetica tradizionale. Per Benjamin la riproducibilità, coinvolgendo nell’intimo il fare artistico, rivela una caratteristica essenziale della tecnica moderna, quella di saldare in un unico processo innovazione, comunicazione, riproduzione. Si potrebbe dire quindi che la chance tecnologica sta nel caratterizzare in senso eminentemente riproduttivo la sua produzione. Fotografia, cinema, televisione, computer e reti telematiche sono tappe di una trasformazione radicale, hanno contribuito a costruire un nuovo statuto d’immagine contemporanea che si attesta come simulacro a causa del carattere scettico e nichilistico della società di massa. Il rapporto tra le arti visive e questi nuovi universi d’immagine è ovviamente molto complesso in quanto ogni medium possiede specifici modelli linguistici di comunicazione. Dalla scoperta della fotografia il mondo delle immagini visuali non è più quello di prima: “Nella fotografia il valore di esponibilità comincia a sostituire su tutta la linea il valore cultuale”, allontanandosi dal valore sacrale e rituale che apparteneva al simbolo. Qui sta la differenza tra simbolo e simulacro: il primo attinge il proprio potere dalla religione, dal mito; il secondo dallo scetticismo e dalla derealizzazione sociale. L’immagine contemporanea si allontana dal simbolo con la conseguenza che, in tutti gli aspetti dell’attività sociale, il simulacro sembra avere la meglio sulla realtà al punto da dissolverla. “Ma le difficoltà che la fotografia aveva procurato all’estetica tradizionale, erano un gioco per bambini in confronto con quelle che il cinema avrebbe suscitato17. Nel cinema ufficiale lo stesso valore sacrale dell’uomo è sacrificato in quanto “l’uomo [l’interprete]viene a trovarsi nella situazione di dover agire sì con la sua intera persona vivente, ma rinunciando all’aura. […] L’aura che circonda l’interprete deve così venir meno, e con ciò deve venir meno anche quella che circonda il personaggio interpretato ”18. L’industria cinematografica ovvia a tale perdita: “Il cinema risponde al declino dell’aura costruendo artificiosamente la personalità fuori dagli studi: il culto del divo, promosso dal capitale cinematografico, cerca di conservare quella magia della personalità che da tempo è ridotta alla magia fasulla propria del suo carattere di merce ”19. In antitesi con tali istanze mercificanti lavora la cinematografia d’avanguardia che, come visto, entra presto in contatto con artisti visivi fra i quali Richter, Man Ray, Duchamp e Léger che si interessano al carattere visivo del cinema, più che alla sua struttura teatrale e diegesica. L’antitesi fra mercificazione mediatica e artisti visuali è mantenuta anche nel medium televisivo. Sia la televisione come medium di massa, sia il video come medium artistico usavano il medesimo supporto materiale, ovvero segnale elettronico che può essere trasmesso in tempo reale o registrato su un nastro, e comprendevano le medesime condizioni di percezione, ovvero un monitor televisivo. Le uniche giustificazioni per un trattamento come media distinti erano sociologiche ed economiche e l’interesse degli artisti visivi deviò sul videotape.L’avvento del computer in ambito artistico ha ritagliato scenari impensabili nella recente storia dell’arte. Tutto ciò che oggi chiamiamo arte elettronica passa da questo strumento e neologismi come video arte, computer arte e arte multimediale appartengono a questa macroarea. Tutta la tecnoarte trova la propria identità nella sperimentazione e nel continuo scambio di linguaggi. L’artista o il semplice creativo dà ordini ad un mezzo che è simultaneamente espressione orale e segno, immagine acustica e visuale, il tutto in uno spazio virtuale in cui interagire in itinere con tali espressioni è sempre possibile. L’arte elettronica è, dunque, un’arte differente, non solo perché strettamente connessa alle tecniche di riproduzione e produzione, ma per la capacità di essere innanzitutto una forma di comunicazione ed espressione che ha sconvolto radicalmente il concetto di creatività. Uomini e macchine si sono sempre più reciprocamente inglobati durante questi decenni di tecnocultura20 fino al connubio espresso dalla virtualità. Ultimo, solo in ordine di tempo, è il World Wide Web capace di stabilire sistemi di distribuzione e circolazione delle immagini inediti. Le frontiere della comunicazione si sono allargate con impressionante rapidità e si è venuto a creare un mondo parallelo a quello reale in cui si sono inserite anche le strategie artistiche. Grazie al risvolto democratico del web si possono oggi proporre al pubblico un’alternativa alle vecchie istanze critiche. Le opere si offrono all’interazione dei virtuali fruitori e si predispongono potenzialmente alla loro rielaborazione. L’opera virtuale/interattiva, in corrispondenza con la logica della rete, è sempre potenzialmente pronta ad una nuova immersione. Parallela a Internet un’altra evoluzione, la rivoluzione digitale degli anni Novanta, ha sancito il passaggio della maggior parte dei mezzi di produzione, immagazzinamento e distribuzione alle tecnologie digitali. L’adozione di questi nuovi strumenti da parte degli artisti sconvolse le tradizionali distinzioni basate sul medium e le sue condizioni di percezione. La tecnologia digitale, infatti, ha reso facilmente possibile la realizzazione di versioni differenti, dello stesso progetto, per media diversi, differenti reti di distribuzione e differenti fruitori, spezzando così la secolare relazione fra l’identità di un’opera d’arte con il suo medium. Marshall McLuhan nell’operaGli strumenti del comunicare21 compie una svolta di enorme rilievo nella quale i problemi della forma estetica sono ripensati in rapporto con i media. Egli è l’interprete entusiasta del mondo compiutamente tecnicizzato dei nostri giorni. Per McLuhan il potere formativo del medium è in se stesso, da qui la celebre conclusione secondo cui “il medium è il messaggio”. Egli ritiene che il requisito essenziale della tecnica moderna sia la sua tendenza ad attestarsi sul piano della comunicazione, espandendo e specializzando l’efficacia dei media. Marshall McLuhan fu il primo ad individuare la stretta connessione tra media, psiche umana e sistemi sensoriali. Le sue rivoluzionarie teorie sulla comunicazione si fondano sulla convinzione che il criterio attraverso il quale la comunicazione viene organizzata abbia sull’individuo un impatto di portata ben maggiore rispetto di quello prodotto dal contenuto stesso del messaggio veicolato. McLuhan indica i media tecnologici non più come strumenti neutri atti solo a veicolare un messaggio ma, per la loro natura specifica, sono essi stessi ad esprimere le mutazioni del nostro modo di pensare ed agire, indipendentemente dall’uso che di loro viene fatto, finendo così per imporsi come vero ed unico contenuto del messaggio. McLuhan segna così il passaggio dalla filosofia dell’arte alla filosofia dei media. Pochi sono tuttavia i pensatori che condividano l’entusiasmo di McLuhan verso i nuovi media. La coincidenza tra il medium e l’opera, il tramite che diventa messaggio nella ridefinizione del concetto di arte contemporanea, è uno dei fondamenti dell’arte contemporanea e risiede nel suo rapporto con la tecnologia, nel fatto che la tecnologia sta diventando il medium costitutivo. La digitalizzazione, la virtualità e l’interattività, inserendosi in quell’istanza innovativa e comunicativa prefigurata da Benjamin si immettono in quel percorso che progressivamente dematerializza e concettualizza l’opera d’arte, introducono conseguenze che hanno portato a compimento la smaterializzazione del prodotto artistico: consacrando il passaggio dall’oggetto al concetto fino a rendere l’opera effimera. Il processo ha portato verso l’assottigliamento, verso la scomparsa dell’oggettualità dell’arte, ma non di ogni forma artistica. In questo processo di dissoluzione ha giocato un ruolo fondamentale l’industria culturale e la comunicazione mediatica basata sulla simulazione che usando e abusando di sofisticate tecnologie, capaci di produrre degli effetti sempre più sensorialmente coinvolgenti, riducono la cultura a merce e la socialità a consumo, corrodendo le basi di ogni acculturazione sociale. La concettualizzazione dell’oggetto artistico non va però intesa unicamente come una contrazione ma, paradossalmente, come una dilatazione. Attraverso il digitale e alle reti telematiche, infatti, si giunge a forme e processi creativi che non hanno bisogno di un luogo fisico. L’opera pubblicata in rete scardina la cornice imposta dalla galleria, non tende all’esclusività, ma ad un’arte senza confini e proprietari, in concordia con quanto presentito da Benjamin si è concretizzato il rapporto delle masse con l’opera d’arte. La tecnologia, intesa in questo senso, diviene un’utopia.Quelle analizzate in questa trattazione possono essere considerate come grandi tappe di una rivoluzione culturale, ma nello specifico si può parlare di rivoluzione comunicativa . Il termine fu usato per la prima volta riferendosi al video ma oggi il richiamo è indiscutibilmente il computer, il web e il mondo del digitale che il video ingloba. In definitiva si può però osservare come il mito di una rivoluzione comunicativa non riguarda unicamente la tecnologia, ma riguarda soprattutto le capacità del singolo individuo di comunicare con notevoli risvolti sociologici e antropologici destinati a produrre mutamenti sulla percezione dell’immagine, del suono, dello spazio, della comunicazione. Il tutto rimanda alla poetica Fluxus e ai suoi due principali obiettivi: stabilire un nuovo ambiente sociale in cui si possa realizzare una nuova comunicazione estetica in grado di ridurre la distanza sacrale tra artista e pubblico, sollecitandone il reciproco impegno dentro un unico campo di creative relazioni linguistiche; e opporre ai canoni e alle convenzioni dell’arte istituzionale nuovi aperti modelli in grado di stabilire permutazioni fra linguaggi diversi. Interpretare la mutazione di questo inedito universo è questione che impegna sia il critico che l’artista. Quest’ultimo per cultura e statuto sociale, è chiamato ad imbastire con lo spettatore una partita aperta che ha come obiettivo la determinazione di una realtà ormai minata. Un’analisi in questo senso va compiuta in termini filosofici emancipati da ogni tentazione di conservatorismo culturale.-
Lesson: I got the power! Part 2
Gina Juarez

Gina Juarez

July 22, 2019
Grade Level: 3-5Suggested Time: 50 minutesOverview Students will utilize what they learned about the functions of circuit parts by designing and creating their own flashlight, fan, or alarm. They will do this by following the engineering design process. Students will explain how the transfer of energy enables their product to work. Vocabularycircuitschematic diagramoutputinputpower sourceenergyObjectivesStudents will apply the engineering design process to make a flash light, fan or alarm out of various LittleBit circuit components. Students will test their product and collect data about how it improves from the initial design.Required Project MaterialsEngineering Design Process Packet (1 per group)PaperPencilRulerTapeVarious craft material such as construction paper, felt, foam sheets, cardboard, or card stock.LittleBits  https://littlebits.com/ Before the lessonPrint out the engineering design process for students to view as needed (1 per group)Make a model of a flashlight using LittleBits and the same material that the students will have access to. Provide examples of how to complete each page of the engineering design process packet to view along with the class.The Lesson1. Ask students to imagine what their classroom would be like without electricity or batteries. Allow students to point out all of the objects in the room that would not work and ask how that would affect their learning environment.2. Reiterate to students why technologies are created (to solve a problem)3. Inform students that they will be working as a team of engineers to create a flashlight, alarm, or fan. 4. Show students your product and the engineering design packet that helped you go through each step of the engineering design process.5. Remind students who their team  members are and assign team roles to each member (time keeper/material collector, lead designer, lead engineer, etc.)  Roles can be switched up during the improve phase.6. Set a timer for each step in the process to keep students on task. Walk around to each team to guide and facilitate as needed.7. Students should be able to improve at least one thing on their initial designIf time permits:Ask each group to explain, using the appropriate vocabulary to the class, how they improved their product from their initial design and what they would change/add to improve it further. 
The Nu Class of Low-Degree-Truncated, Rational, Generalized Functions. II. IMSPE in D...
Selden Crary

Selden Crary

July 10, 2019
A document by Selden Crary. Click on the document to view its contents.
PREreview of bioRxiv article “Structure-function analysis of ZAR1 immune receptor rev...
Sophien Kamoun

Sophien Kamoun

July 08, 2019
This is a review of Baudin, Schreiber, Martin et al. bioRxiv doi: https://doi.org/10.1101/592824 posted on March 29, 2019. The authors used structural modelling to identify elements required for self-association of the NLR immune receptor ZAR1, specifically its N-terminal CC-domain ZAR1CC. They discovered that the N-terminal α1 helix and EDVID motif in ZAR1CC are important for oligomerization and function of ZAR1. This complements recent findings by Wang et al. (2019) based on cryo-EM structures, highlighting the importance of the α1 helix for the activity of ZAR1 although some differences were noted that could reflect the different experimental set ups (CC domain vs full-length protein) as discussed in the paper.
Calculating spatial boundaries and phenomenal capacity of conscious resonating struct...
Tam Hunt

Tam Hunt

July 06, 2019
I suggest a heuristic for calculating the spatial boundaries and phenomenal capacity of conscious resonating structures in General Resonance Theory (GRT), a theory developed by Hunt and Schooler over the last decade. GRT suggests that consciousness is a product of various resonating frequencies at different physical scales. All physical structures vibrate and should be considered processes rather than static things. Resonance assists in achieving phase transitions to higher levels of complex consciousness. When vibrating structures resonate in proximity to each other they will under certain circumstances “sync up” in a shared resonance frequency. GRT suggests that a shared resonance is the key requirement for the combination of micro-conscious entities into a larger-scale macro-consciousness. This approach is, thus, a solution to the “combination problem” of consciousness. The proposed mathematical heuristic allows for a practical approach for identifying potential conscious structures and the spatial boundaries of such structures as they change over time, and for calculating the capacity for phenomenal consciousness present within the putative conscious resonating structure. The slowest-frequency shared resonance is the limiting factor for the size of any macro-consciousness. I describe some limitations of the proposed framework, and how it compares to Tononi’s Integrated Information Theory. IIT’s constellation-qualia characterization framework may be compatible with GRT and may be a useful tool to use in conjunction with GRT’s quantification framework.1. IntroductionThis paper builds upon the mathematical framework described in Hunt 2011, which suggested a method for calculating the phenomenal capacity of any conscious entity, by providing a new method for calculating the spatial boundaries of any conscious entity in each moment. This methodology is grounded in a panpsychist framework (Hunt 2011, Schooler, Hunt, and Schooler 2011, Hunt and Schooler 2019; Goff 2017) that assumes that all matter is associated with at least some capacity for phenomenal consciousness, albeit extremely rudimentary in the vast majority of matter. Accordingly, the General Resonance Theory (GRT) developed further in the present paper is applicable to all physical systems, rather than being limited to neurobiological or biological systems.The notion of resonance (synchrony, coherence, shared vibrations) has a long history in neuroscience. Crick and Koch featured this concept in their neurobiological theory of consciousness (Crick and Koch 1990, Koch 2004). Fries has made the concept of “communication through coherence” (neuronal synchrony/resonance) even more widely known (Fries 2005, 2015). Dehaene 2014 highlights the role of long-range synchrony between cortical areas a key “signature of consciousness,” (as does Koch 2004). Bandyopadhyay has made the concept central to his Fractal Information Theory of consciousness (Bandyopadhyay 2019).The resonance theory of consciousness developed in Hunt and Schooler 2019, Hunt 2011, and the present paper, also makes resonance the key mechanism by which rudimentary consciousness combines – through shared resonance in proximity – into more complex consciousness. This is the case because resonance allows for phase transitions in information flows to occur at various organizational levels, allowing previously chaotic systems to self-organize and thus become coherent.The primary insight offered in the present paper is that consciousness is a product of resonance chains (Fn 1) of various information/energy (Fn 2) pathways, and that the spatial and temporal boundaries of any particular conscious entity is established by the slowest frequency shared resonance within that conscious entity, for each particular information/energy pathway. Resonance frequencies and resonance chains are constantly changing in most entities; thus, the spatial boundaries of conscious entities will be constantly changing at least a little. Most combinations of consciousness, in which less complex entities combine into more complex entities, will be comprised of a nested hierarchy of conscious entities, with one dominant conscious entity in each moment, without extinction of the nested entities’ consciousness, distinguishing this approach from Integrated Information Theory and other theories that assume the extinction of nested conscious entities, leaving only one macro-conscious entity left (this is IIT’s “exclusion principle”).
Multiplicative Iteration On Infinite Products
Benedict Irwin

Benedict Irwin

January 07, 2021
We have the product ^\infty {n^3+1} = {3} if we take the prodegrand and apply a multiplicative derivative defined by f^*(x) = \exp\left({f(x)}\right) then we get ^\infty \exp\left({n^6-1}\right) \sim 1.64872 This converges to \exp\left({2 m (m + 1) (m^2 + m + 1)}\right) = likewise for ^\infty {n^3+1} = \pi \pi we get ^\infty \exp\left({n^4-1}\right) = \exp(-3/2 + 2 \gamma + \psi_0(2-i) + \psi_0(2+i)) we can take the product ^\infty )^2}{(1+2k^{-1})} =2 and find ^\infty \exp\left({k(k+1)(k+2)}\right) = {} in the same line of thought we have ^\infty \exp\left({n^8-1}\right) = A A = \exp\left( -{2} + 2 \gamma - \psi_0(2 \pm i) + \psi_0(2 \pm (-1)^{1/4}) + \psi_0(2 \pm (-1)^{3/4}) \right) it seems that Q_k=^\infty \exp\left(}{n^{2k}-1}\right) =\exp\left({2} + ^{k-1} \psi_0(2\pm(-1)^{l/k}) \right) |l|l|l|l| $^\infty {n^3+1}$ & ${3}$ & $^\infty \exp\left({n^6-1}\right)$ & $$ $^\infty \left(1+{n}\right)^n e^{1/(2n)-1}$ & $}{}$ & $^\infty $ & e1 − γ − π²/12
ABOUT RUSSIAN VERSION OF HISTORICAL PROGRESS
Pavel Simashenkov

Pavel Simashenkov

July 05, 2019
Pavel D. Simashenkov,
Unlocking the Collections: getting comfortable with next-level access to museum miner...
Aaron J. Celestian

Aaron J. Celestian

June 29, 2019
A museum mineral collection is a vast repository of Earth and planetary materials. It is a resource for researchers looking to gain access to the rarest minerals and gems, and those that are looking for intricate details in species variation. Some researchers need access to common minerals, but don’t have the means to acquire specimens themselves. More importantly, in my opinion, a museum mineral collection can be used to inspire wonder to our visitors, inform the public of current issues in a safe and comfortable space, shape their world view if they trust us, or just allow them to appreciate Nature’s creations. The collections need to be accessible at all levels.When it comes to unlocking the museum’s mineral collection, what we are talking about is accessibility, and are there only two groups of people to which this mainly concerns. They are the professional researchers and the general public.
PREreview of bioRxiv article “Genome-wide increased copy number is associated with em...
Sophien Kamoun

Sophien Kamoun

June 29, 2019
This is a review of Knaus et al. bioRxiv doi: https://doi.org/10.1101/633701 posted on May 16, 2019. In this paper, the authors studied variations in ploidy in a wide range of isolates of the potato blight pathogen Phytophthora infestans.
Mellin-Gamma-PolyGamma Analogue
Benedict Irwin

Benedict Irwin

March 13, 2026
CONSIDER We have the multiplicative derivative f^*(x) = \exp\left({f(x)}\right) we then have that f(x) = \Gamma(x), \;\; f^*(x) = e^{\psi_0(x)}\\ f(x) = e^{\psi_0(x)}, \;\; f^*(x) = e^{\psi_1(x)}\\ f(x) = e^{\psi_k(x)}, \;\; f^*(x) = e^{(x)} which makes the relationship between the multiplicative derivative and the polygamma function clear. This also shows us that it is instructive to write Γ(x)∼eψ−1(x). Which does indeed have some relationship to the log-gamma function. ZETA We can calculate the multiplicative derivative of the Riemann-zeta function by taking the prime product representation: \zeta(s) = \prod_p {1- p^{-s}} \zeta^*(s) = \prod_p p^{-}{1- p^{-s}}} = \prod_p \sqrt[1-p^s]{p} from the ratio of ζ′(s) to ζ(s) we know this will be infinite at the zeta zeroes ρk, and then we can invert this product for 1/ζ*(s) which should then be 0 at the zeta zeroes. It appears that (by experimentation) \zeta^*(s) = {1^s} + {2^s} + {3^s} + {2 \cdot 4^s} + {5^s} + {6^s} + \cdots here it seems that all primes have a simple log term and composites are more complicated. 4 \to \log(2) + {2} \\ 6 \to \log(2)\log(3) \\ 8 \to \log(2) + \log(2)^2 + {6} \\ 9 \to \log(3) + {2} \\ 10 \to \log(2)\log(5) \\ This can be interpreted as a product over prime factors, with multiplicity factors which appear to be log(p)k/k! for multiplicity k, however for 8 there are two pairs of 2 so double counting occurs? We can also consider the Dirchlet series for the reciprocal function {\zeta^*(s)} = 1 - {2^s} - {3^s} + {4^s} -{5^s} + \cdots which appears to invert the sign of part of the series. {\zeta^*(s)} = \sqrt[p^s-1]{p} We can apply the multiplicative derivative \left({\zeta(s)}\right)^* = \prod_p \exp\left(}{1+p^{-s}}\right) If we write \prod_p \sqrt[1-p^{2s}]{p}\sqrt[p^{s}-1]{p} INTERESTING We could even consider the function that when differentiated gives the original ζ(s) Euler product. This is z(s) = \prod_p \exp\left(-_2(p^{-s})}{\log(p)}\right) we appear to have z_1(s) = 1 - {\log(2)2^s} - {\log(3)3^s} - {4\log(2)^2 4^s} + \cdots we find a whole family of functions related to each other by z_k(s) = \prod_p \exp\left(-_{k+1}(p^{-s})}{\log^k(p)}\right) with z₀(s)=ζ(s) and zk*(s)=zk − 1(s). We have z_2(s) = 1 - {\log^2(2)2^s} - {\log^2(3)3^s} - {8\log(2)^4 4^s} + \cdots
Chemistry vs biology
Minas Sakellakis

Minas Sakellakis

July 01, 2019
WHAT IS THE DIFFERENCE BETWEEN CHEMISTRY AND BIOLOGY?Minas SakellakisUniversity of Patras, Patras Medical School,26504, Rion, Patras, GreeceCorrespondence to: Minas Sakellakis, University of Patras, Patras Medical School,Rion, 26504, Greece. Tel: +302610999535, Fax: +302610994645, e-mail:doctorsakellakis@gmail.comRunning title: What is the difference between chemistry and biology?ABSTRACTMost theories suggest that life originated from a chemical evolution in the young earth. But how does organic chemistry transform into biology? Are they even completely separate entities or are they just different sides of the same coin? The aim of this work is to identify a new way to fill in the gap between them. Individual living systems can decrease entropy locally, they can reproduce, self-organize and respond to stimuli. However from a strictly biochemical perspective all life is connected to each other in a constant recycling of nutrients. Here we challenge the idea that life can be biochemically separated into individual organisms, thus the entropy of life as a whole increases as in any complex chemical reaction system. We also challenge the idea that reproduction, self organization and response to stimuli can actually differentiate biology from chemistry. We ourselves are the observers of the phenomenon of life and the biochemical events eventually lead to us or to entities that functionally look like us. The fact that part of the results are the observers of the whole event, raises some questions regarding the role of self-organization as a life-defining property. For example, if a river could think, would it perceive the cycle of water in which it participates as self-organizing? If we also consider the stability of DNA molecules with their packaging (e.g. histones, etc), the fact that DNA interactions with other molecules happen due to natural causes even in living systems and the potential of changes in DNA sequences to affect both the natural selection of the biological systems and the natural history of complex organic chemical reactions, it is argued that we cannot rule out the possibility that biological systems and complex chemical reactions are two sides of the same coin.Keywords: chemical; reactions; organic; biochemistry; life; entropy; evolution.MANUSCRIPTLife is the property that distinguishes entities that have biological functions, from those that don’t. Various forms of life exist, including bacteria, archaea, protists, fungi, plants and animals. Since there is not a widely accepted definition of life, the criteria can sometimes be ambiguous and include viruses, viroids, or even synthetic life [1, 2, 3].Living organisms share some common characteristics. They are composed of cells, they maintain homeostasis, they have a metabolism, they reproduce, they adapt to their environment and they respond to stimuli [4].Life on earth initially appeared 4.28 billion years ago, soon after the formation of the oceans (4.41 billion years) [5]. Several theories have attempted to explain the origin of life on earth. Most theories hypothesize that life arose from non-living material, like simple organic compounds [6]. The transition of non living chemistry to life is widely believed to be a gradual process of increasing complexity rather than a single event [7].Here we will attempt to perform an in depth analysis of the similarities and key differences between chemistry, particularly complex organic chemistry and biology. What connects them and what separates them? How does chemistry transform into biology? We will also discuss potential misconceptions that we might have as human beings because of limitations in our senses.The aim is to find a new way to fill in the gap between complex organic chemistry and biology. This will help us get a better insight into the process of abiogenesis.1) Chemical origin of biological building blocks.Oparin and Haldane independently proposed that life’s building blocks originated from simple abiogenic material in proto-earth [8, 9]. While this doesn’t give much details on how these building blocks generate life in the first place, it is important because it predicts that the spontaneous formation of simple building blocks of life from simple elements is possible. The hypothesis of Oparin and Haldane was later validated by the famous Urey-Miller experiment, which introduced heat and electric energy in a chemical mixture of elements that are present in a reducing atmosphere [10]. This resulted, among others, in the formation of some familiar organic compounds (e.g. amino acids) that were somewhat more complex than the initial elements. These results established abiogenesis from a primordial chemical soup as the prevailing theory for the origin of life. Oparin and Haldane further speculated that while these building blocks become more complex, they gradually gain more life-like properties over time, until eventually they become life as we know it. Despite the initial excitement, this hypothesis was later disproved by subsequent experiments.It has been shown recently that if you mix pyruvate and glyoxylate in iron-rich warm water (mimicking conditions in young earth), the result will be a network of reactions with over 20 known biological intermediates. Some will even have 6 carbon atoms. The scientists also found that the resulting network increased its complexity over time [11].There is today overwhelming evidence supporting the idea that the biological building blocks can originate from simple molecules under specific conditions. Although the experiments do not produce fully functional proteins or actual living systems, it is true that systems of chemical reactions over eons can evolve a lot. A functional protein is immensely complicated, folded, it carries information and it cannot function if it loses its structure even slightly [12]. But functional proteins are not magic bullets and they don’t have some sort of “weird” properties. They are chemical molecules like all others. The only difference is that they are able to interact with other functional biomolecules in specific ways. As we will explain later, this points more towards the fact that these molecules share a common origin and evolutionary history.2)What would the natural history of complex chemical reactions involving very long organic molecules be in the long term?.Our intuition tells us that a system of chemical reactions, even if it gets external energy, will eventually reach an equilibrium state, but experiments show that this is not always the case [11].If you start with a large number of initial chemical substrates and they all start reacting with each other bi-directly, then the total number of substrates will increase over time. If equilibrium is avoided and the organic molecules manage to become longer, they will form different stereochemical molecular structures. They will start folding differently in space, creating an ever increasing number of possible 3D configurations. Once the chemical interactions become dependent on the spatial properties and conformations of the molecules, the possibility of reaching a chemical equilibrium in the system, given the addition of external energy, will be greatly diminished. The possible ways of interactions will be way too many and statistics will start not to favor equilibrium.In addition, every time a complex organic molecule with a complex 3D configuration reacts with other organic or inorganic molecules, such as CaCO3, water, simple amino acids, lipids, etc, there is a high chance that the stereochemical complexity of the system will further increase. The addition of more atoms and especially carbon containing molecules in the spatially complex system can multiply the number of molecules and the 3D complexity of the material available for participation in life’s chemical machinery. This will constantly increase the organic stereochemical reservoir.The natural history of these reactions can in theory lead to the selection of the most stable and sustainable chemical systems among them. As a result of this process, nucleic acids, protein, lipids, sugars, etc will be inevitably formed.The reactions will eventually favor (and in a way select) the most stable systems. We will try to identify which factors will affect this primordial chemical system.a) Hydrophobicity.The formation of hydrophobic bonds can add to the complexity of 3D chemical systems. In addition, it is a critical determinant of the fate of this system. The final result will be that chemical systems will be sequestered and isolated from each other, which will limit and regulate the potential interactions, and create both areas of complexity, but also areas of relative chemical stability.b) Adhesion.Another important fate determinant is the capacity of some molecules to strongly adhere to surfaces, membranes or to each other. This creates stability because the systems endure disrupting external or internal events, such as the water flow, currents, wind, etc. Reactions with a “sticky” element will eventually prevail in the long term and form the basis for further chemical complexity and interactions. This will also make the chemical process multifocal rather than diffuse. This will enhance its ability to thrive.c)Stable systems endure.In complex systems of organic chemical reactions, eventually nucleic acids and other biological molecules will be formed among others. The systems that are chemically stable will endure more, relative to the unstable ones. Thus, they will be over-represented in the resulting mixture. One example of remarkable stability is the formation of deoxyribonucleic acid molecules and their packaging in histones, etc. The endurance of the structures will contribute to the sustainability and relative expansion of these molecules, as they will be relatively unaffected by the other events that are happening around them. The formation of membranes and the inclusion of these systems inside them will further contribute to their stability.d) Other factors.Other factors such as polarity, the speed of some reactions, the abundance of production of metabolites, or small repeatable loops may create systems that can promote their own existence, in a process that resembles a kind of natural selection and survival of the fittest reactions. There are probably other factors that will play a role as well. All these factors will result in the evolution of the systems over time, and cause a step-wise, multifocal natural selection of the most stable compounds and chemical systems.The above mentioned factors are critical players in real biological systems as well. Stereochemistry is key. It is clear that the structures of organic biological molecules can be extremely long and complicated, characterized by multiple side groups and branched architecture. They frequently have several active sites that interact with other molecules in such a way that one must know their spatial 3D conformation to understand them, because they behave differently in 2D and 3D [13].Hydrophobicity is also important in biology. The formation of biological and other membranes is a result of hydrophobic properties of some molecules. Cellular membranes, organelle membranes, pore formation, vessel formation, etc are some examples [14].Adhesive capacity is also an important property of life. For example, if you place living and dead cells inside a flask and you add media, then you can easily sort them out after a while, because only the living cells will adhere to the flask [15].Sponges are good examples that shows the importance of stickiness in biological systems. Recent studies suggest that they were among the first organisms on earth. At a first glance, they are unique, as they look like something in between living beings and simple chemical systems. The strong adhesions among its molecules (together with other factors) make the biochemical systems in sponges sustainable over time [16].Polarity, loops, speed of interactions and other factors we talked about are also important players in biology as well [17, 18].Despite the similarities, the above mentioned chemical systems that we discussed, are still not even close to match the requirements to be considered as life, according to the definitions. These spontaneous systems of reactions will most likely result in increasingly chaotic chemical systems, that will lack the ability to self-organize, reproduce, respond to stimuli, etc. How do these reactions make the leap to bridge chemistry with biology?4)The fact that we are the observers of the whole phenomenon of life gives us a specific viewpoint, which can be sometimes deceiving.When we study the phenomenon of life, we come across a very unique and interesting fact. We are not only the observers of the phenomenon, but we are also the results, or at least a part of the results. By studying life, we study all the processes that lead to us and enable us to continue to exist. It’s like someone trying to observe his eyes by using his own eyes.The organ responsible for our cognition is our nervous system. We have a sense of ourselves as cognitive and logical beings, and we also have a vague sense of our own body and its functions (interoception) [19]. The process of thinking is based on the function of neurons which is based on chemical and electrical events. There is little doubt that our perception has some limitations. The question following question is important. What we understand about life is all that is there, or are we missing some critical facts?Some limitations of us being the observers of the phenomenon of life are the following:a)We don’t realize the unfathomable number of chemical interactions and events that happen every second, even inside a tiny bit of living material.Even when we look through microscopes, we don’t see plain chemical reactions. We see for example organelles, such as mitochondria, lysosomes, flagella, ribosomes, etc. If we had ways to directly observe biochemistry at the molecular level we would be simply mind blown. The underlying chemical complexity is so vast, that it is just beyond our intuition. This is not without consequences. For example we tend to forget that every chemical reaction in life happens for a natural reason. During replication, adenine and thymine interact by forming chemical bonds due to natural reasons. If we were able to see the events in a tiny scale, we would understand that these events have no purpose, at least locally.We also don’t get a direct feeling of the dramatic chemical decline that an individual organism faces from the moment this individual gets born. A human being at birth is a biological system that can live around 80 years from that moment, while at 20 years he becomes a system that can live approximately 60 years. Our understanding is that a living organism self-organizes and constantly replenishes itself, recovering the order inside its cells. This is partly true however, because if there is not an abrupt major catastrophic event or catastrophic external factor, the body slowly ages over the course of the years. Here is an oversimplification. If hypothetically after 80 years the composition of the body is 95% the same from a chemical perspective, one can understand that due to our inability to comprehend large numbers, we don’t realize that if initially there were 10 trillion chemical interactions, there is a major irreversible alteration in almost 18 million reactions every day on average.In conclusion, although everyone is aware of the fact that living systems can be reduced down to complex chemical reactions, almost no one takes it into consideration in everyday life.b)Life from a strictly biochemical perspective is a sum of chemical systems that interact. From a biochemical standpoint, there is not such a thing as an individual organism.Our brain needs to organize the information it gets through external stimuli. This is crucial in order for the brain to understand the world and not get overwhelmed by the complexity of the events that happen every second in front of its eyes. But does this separation make sense from a biochemical perspective?One of the most interesting properties of life is that it can utilize simple elements and biosynthesize complex biomolecules. Thus, it can reverse entropy locally. For example plants or photosynthetic bacteria can use simple elements and energy in order to form their building blocks [20]. So this local entropy decrease is a major difference between living systems and ordinary complex chemical systems. But is this actually the case?Imagine that you place one bacterial cell inside a flask and you add growth medium so it can grow. After a while the cell will use the energy and the resources in the medium to create new bacterial cells, hence locally producing order. But life does not exist in isolation. The studied bacteria perform their activity because there is a complex template already existing inside them. Bacteria don’t come out of nowhere. They exist because of all the other life that exists or pre-existed. Every reaction in the flask happens because of the template and follows natural laws. A chaos of both anabolic and catabolic reactions are happening, but overall the bacteria will leave a mess inside the flask (the dirty colour of the medium and the smell when you open the flask are convincing). What happens in real life is that all the by-products of metabolism (gasses, waste, etc) become food and thus ingredients for other organisms in a constant recycling of nutrients. So even the waste products cannot be excluded from the chemical cycle of life. All life is connected to each other and from a strictly biochemical standpoint, there is not such a thing as an individual organism.Lets see how life as a whole operates from a pure biochemical perspective. Contrary to what people think, entropy is very strictly defined by the number of microstates that are consistent with the macroscopic quantities of the system. Photosynthetic bacteria and plants use energy to form complex organic macromolecules (biomass) from simple molecules. However, they consume energy to achieve that. They also perform respiration, they produce gasses and odors, they produce some heat, they perform some movement inside them, like all living beings [21]. Eventually, all plants and photosynthetic bacteria die and their biomass gets degraded. Only 10% of the biomass will produce new biomass, while 90% will produce energy, heat, respiration, motion, etc. Then these consumers will also eventually die and their biomass will be utilized by other consumers, while again 10% will lead to biomass formation, and so on [22, 23].In other words, decreases of entropy are not the norm in biological systems. Collectively, there is a constant recycling of carbon-based macromolecules, which constantly assemble and then degrade. But life is mostly all the disorder what happens during or aside this form of carbon recycling (e.g. motion, respiration, etc). We don’t see it this way because we tend to “cherry-pick” reactions, by considering individual organisms or systems that look like us as independent functional units, while we overlook the rest of the interactions.To make an analogy, imagine that you have a flask full of some hypothetical molecules that move randomly and you add external energy. Also assume that the molecules are a little bit “sticky” and adhere to each other but only for a while. What you will mostly observe is areas of clumps and dead space, because this is how disorder looks like. Now suppose that the observer is a group of clumps himself. The observer might think that the purpose of this environment is to create clumps like him, and that the clump formation decreases entropy locally. The observer would have a hard time to explain this entropy decrease because one would expect production of disorder instead, given the initial ingredients of the experiment and the external conditions.In conclusion, life overall is a disordered biochemical system and in that sense it does not differ from any spontaneously occurring complex organic chemical reaction system.c)Does life really self-organize?All chemical reactions of life individually happen due to natural reasons, but collectively they seem to serve an ultimate purpose that enables self-organization. This is considered one of the major properties that separates living from non-living systems.However, we already mentioned that we ourselves are the observers of the phenomenon of life. All the biochemical events lead to us and to systems that functionally look like us (e.g. we share large amounts of the same genetic material with corn, Universal code, Krebs cycle, reproduction, etc). The fact that a part of the results of a process is the observer of the whole event, automatically puts into question the epicness of self-organization. If a river could think, would it perceive the cycle of water in which it participates itself as self-organizing? Although an oversimplification, imagine you have a series of events: A->B->C->D->……X->Y->Z->A->B->…etc and the observer is (N+O+P). The observer will think that the system self-organizes. But it’s not that the system self-organizes. It is that similar systems under the same laws of nature produce similar results all the time.Here is a hypothetical example: There are some chemical reactions in the surface of a moon of Jupiter. If somebody analyzes the chemistry in the surface of this moon now and in 50 years, most likely the results will be similar, because the reactions produce similar results all the time. Similarly the composition of the biochemistry of life on earth today will be similar as it will be in 50 years from now . We will still see trees, animals, bacteria, etc. However, both in the case of chemistry on Jupiter’s moon and biochemistry on earth, if you look carefully, you will find some small differences.Imagine that we cultivate some chemical reactions with the help of external energy in a small tube. Let’s say that the system becomes extremely complex and we get to a point where we see nothing else but combinations of colors and shapes. Consider that a system (structure) inside this complicated mixture is the observer of the whole system, which means that he sees the events from inside, where he lives. For that observer, he exists because the chemical reactions continue until the initial ingredients or the external energy cease to exist. In reality, if things were different, he wouldn’t have any problem, but only in the case in which he was that different result himself. He would have been perfectly adapted in that case too. He would simply perceive the catalogue of the chemical reactions that create him as a self-organizing mechanism, because everything that happens contribute to him being there as he is.Can this hypothetical system be compared to life on earth, and can this fictional observer have some similarities with us? Life itself seems to be the sum of biochemical reactions on earth. If we were some really weird forms of aliens and we were observing earth from the outer space, then it is very possible that we would only see a very complicated network of reactions. Similar systems under same laws will produce similar results all the time. We don’t know if the aliens would separate into individual organisms. For such aliens that don’t separate, DNA molecules are likely just a part of this chemical soup (albeit a relatively stable one) and participate in some interactions that happen for natural reasons. Other nucleic acid bases form bonds with DNA molecules in a way that other DNA molecules are being formed, and so on. Mutations and other genetic or epigenetic changes will ultimately determine the fate of the system. Changes in DNA sequences that sometimes enhance the sustainability of the system would be selected. Darwinian natural selection would still be at play. The hypothetical aliens would see the same things that we see now when we observe life, but from a different perspective. From our point of view, DNA molecules are a kind of code that carries information. Both our viewpoint and the aliens viewpoint would be valid because we observe the same phenomenon. It’s like the two different sides of the same coin. The only difference is that the aliens would never ask about how life originated on earth, because the answer would be obvious. Life always was and still is about the natural history of complex organic chemical reactions in any order.d)There is nothing more tricky than to attempt to understand human cognition and logic by using human cognition.How can chemical systems evolve into beings with capability to think and have logic? This question can be reduced down into the following dilemma. Is cognition a homeostatic tool like all other properties of biochemistry, or is it something different?All our thoughts, regardless of how deep they are or complex, can be reduced down to simple chemical processes. There are absolutely no exceptions. Reason is driven by what we perceive as integral tendencies that are pleasure-seeking, as well as internal forces and instincts (reproduction, survival, etc). If you are hungry for days, you are gonna be constantly thinking of ways to feed yourself. You can deliberately fast, but this is because you decided that this will give you even more pleasure (e.g religious views) than eating.Logic is also driven by self and other parties interests and aims. Brain function builds upon and uses the existing synaptic background that originates from nervous synapses that have been already developed. Based on the evolutionary history written in the DNA molecules and what they have learned so far, they seek to find solutions or develop strategies to fulfill their interests and aims. They do so, because this will result in pleasure and they will avoid pain. In other words, logic and cognition are tools that nature uses to serve its purposes. They are homeostasis tools, no different than the liver, the lungs, the kidneys, etc on that sense.DISCUSSIONLife on earth probably originated from plain chemistry, but we are still looking for the mechanisms the bridged chemistry with biology. Plain chemical reactions can only theoretically go so far. However, we have shown here that a more careful and rigorous look suggests that biological systems might in fact not be that different if we take our perspective into consideration. There are probably several mechanisms that enabled life to emerge, but the main difference between biology and chemistry might have been the fact that we ourselves are the observers.ACKNOWLEDGEMENTSNo acknowledgementsCONFLICT OF INTERESTSThe author reports no conflict of interest.REFERENCES1) Ruiz-Mirazo K, Peretó J, Moreno A. A universal definition of life: autonomy and open-ended evolution. Origins of Life and Evolution of the Biosphere. 2004 Jun 1;34(3):323-46.2) Trifonov EN. Vocabulary of definitions of life suggests a definition. Journal of Biomolecular Structure and Dynamics. 2011 Oct 1;29(2):259-66.3) Forterre P. Defining life: the virus viewpoint. Origins of Life and Evolution of Biospheres. 2010 Apr 1;40(2):151-60.4) Chodasewicz K. Evolution, reproduction and definition of life. Theory in Biosciences. 2014 Mar 1;133(1):39-45.5) Dodd MS, Papineau D, Grenne T, Slack JF, Rittner M, Pirajno F, O’neil J, Little CT. Evidence for early life in Earth’s oldest hydrothermal vent precipitates. Nature. 2017 Mar;543(7643):60.6) Świeżyński A. Where/when/how did life begin? A philosophical key for systematizing theories on the origin of life. International Journal of Astrobiology. 2016 Oct;15(4):291-9.7) Lindahl PA. Stepwise evolution of nonliving to living chemical systems. Origins of Life and Evolution of the Biosphere. 2004 Aug 1;34(4):371-89.8) Oparin AI. The origin of life on the earth. The origin of life on the earth.. 1957(3rd Ed).9) Haldane JB. The origin of life. The Quest for Extraterrestrial Life. 1980:28.10) Urey HC. On the early chemical history of the earth and the origin of life. Proceedings of the National Academy of Sciences of the United States of America. 1952 Apr;38(4):351.11) Muchowska KB, Varma SJ, Moran J. Synthesis and breakdown of universal metabolic precursors promoted by iron. Nature. 2019 May;569(7754):104.12) Ippolito JA, Alexander RS, Christianson DW. Hydrogen bond stereochemistry in protein structure and function. Journal of molecular biology. 1990 Oct 5;215(3):457-71.13) Reetz MT. Laboratory evolution of stereoselective enzymes: a prolific source of catalysts for asymmetric reactions. Angewandte Chemie International Edition. 2011 Jan 3;50(1):138-74.14) Wieprecht T, Dathe M, Beyermann M, Krause E, Maloy WL, MacDonald DL, Bienert M. Peptide hydrophobicity controls the activity and selectivity of magainin 2 amide in interaction with membranes. Biochemistry. 1997 May 20;36(20):6124-32.15) Albelda SM, Buck CA. Integrins and other cell adhesion molecules. The FASEB Journal. 1990 Aug;4(11):2868-80.16) Li CW, Chen JY, Hua TE. Precambrian sponges with cellular structures. Science. 1998 Feb 6;279(5352):879-82.17) Macara IG, Mili S. Polarity and differential inheritance—universal attributes of life?. Cell. 2008 Nov 28;135(5):801-12..18) Watterson JG. The pressure pixel—unit of life?. BioSystems. 1997 Feb 1;41(3):141-52.19) Craig AD. How do you feel? Interoception: the sense of the physiological condition of the body. Nature reviews neuroscience. 2002 Aug;3(8):655.20) Krause GH, Weis E. Chlorophyll fluorescence and photosynthesis: the basics. Annual review of plant biology. 1991 Jun;42(1):313-49.21) Atkin OK, Millar AH, Gardeström P, Day DA. Photosynthesis, carbohydrate metabolism and respiration in leaves of higher plants. InPhotosynthesis 2000 (pp. 153-175). Springer, Dordrecht.22) Lindeman RL. The trophic‐dynamic aspect of ecology. Ecology. 1942 Oct 1;23(4):399-417.23) Trebilco R, Baum JK, Salomon AK, Dulvy NK. Ecosystem ecology: size-based constraints on the pyramids of life. Trends in ecology & evolution. 2013 Jul 1;28(7):423-31.
Whose Knowledge counts in Climate Change? A Procedural Justice perspective on Floodin...
Veronica Olivotto

Veronica Olivotto

November 17, 2020
 1. IntroductionAt the summit organized by the New York Panel on Climate Change (NYPCC) in March 2019, during the Q&A, a woman stood from the audience and told to a panel made of predominantly city officers, that she was using the online Flood Hazard Mapper to identify an area in Manhattan where she and her husband could move to from Princeton. She was interested in understanding whether buying a property located within a 100-year floodplain was a good decision and, if so, she asked authorities to add information about where the location of evacuation zones in the Flood Hazard Mapper, so she could be sure that in a flooding event, the evacuation centers were within reach. Whether or not this was a real question or a provocation, I immediately made a connection with the slowly growing literature linking coastal flood risk and environmental justice, specifically the debates around living in a floodplain by choice, which the woman was an example of, or because of historical planning decisions that placed some homes and people in areas more at risk than others.The issue of social justice in relation climate change induced flooding is not new and research on the topic has been growing in many directions where justice dilemmas emerge. In this paper I briefly review the long history of Environmental Justice (EJ) movement in the US, including its meanings, scope and relationship to nature with the aim of contextualizing how, more recently, the movement expanded to concerns related to climate change. Then, I review how questions of distributional and procedural justice are used in EJ literature as well as climate change, specifically in relationship to coastal flooding. I tease out the concepts of procedural justice that can complement a distributional justice understanding of coastal flooding and I apply those in the context of East Harlem, in Northwestern Manhattan, a community district where issues of climate change and gentrification act like a double edge sword towards it’s already burdened share of low-income black and brown communities.1. 1 The Evolving Environmental Justice Movement in the United StatesSince the environmental reforms of the 1970s, according to , the movement in the U.S. has not been effective because it has been dominated by single issue approaches, affecting the quality of environmental laws that have been approved (for instance privileging control of pollution rather than prevention). The authors attribute this crisis largely to, on the one hand, environmental organizations of the time being composed of white, middle-class professionals who were unable to draw linkages between racism, abuse and economic inequality. On the other, in an effort to draft legislation and make environmentally friendly initiatives, the movement had become increasingly detached to those it was supposed to serve. The movement was not oriented towards public participation but established corporate-like organizational models that inhibited citizen involvement. From the mid-eighties, however, a subaltern movement grew emphasizing the need to re-establish a connection with constituents who were predominantly black and brown communities of color victim of toxic pollution in cities, connecting them across a variety of issues and allowing for their own voices to emerge. According to Faber and McCarthy, key moments in the subaltern movement were the African American protests against PCBs in North Carolina in 1982, building on other protests such as the Love Canal Homeowners Association in 1978 who were able to successfully relocate 900 families away from the toxic dump on which their homes were built in Niagara (NY).From the late-nineties, following the First National People of Color Environmental Leadership Summit of 1991, we see the emergence of regional and national campaigning networks striving to create stronger institutional linkages between the local groups that emerged in earlier years. By the late nineties local groups began to connect environmental issues of exposure to and impacts of pollutants, to broader issues (e.g. gun violence, occupational health and safety, immigration rights, human rights, anti-globalization, indigenous rights to land and community empowerment), moving from single-issue reforms to addressing the systemic causes of injustice by bringing together a diverse group of impacted communities (Faber and McCarthy, 2001). A landmark moment was when in 1994 when the networks pressured the Environmental Protection Agency (EPA) to issue the Executive Order 12898 titled “Federal Action to Address Environmental Justice in Minority Populations and Low-Income Populations” prohibiting discriminatory practices in federal programs and the creation of the National Environmental Justice Advisory Committee (NEJAC) to provide independent advice to the EPA and integrate EJ within its programs (Bullard, 2001).The crisis of the U.S. environmental movement in the 70s and the emergence of a counter movement in the 1980-1990 is underscored by a fundamentally different ontology of the environment between these two periods. For Di Chirico (1995) the meaning of the environment for the historically white, predominately male, and middle-class movement, imbued with Euro-American colonist thinking, was largely associated with the preservation of an uncontaminated wilderness, outside of society and human culture. On the contrary, the definition of environment by EJ activists relates to where one works, plays and lives. This definition fits the urban dimension of EJ activism, where the victims of industrial pollution reside, but it also accounts for the presence of people which was taken for granted in previous understandings. Since many prominent EJ activists see themselves emerging from the social movements of the sixties, it makes sense to see activists as civil society rights activists pursuing forms of grassroots political organization.The EJ movement is fundamentally urban and it became quickly embedded into struggles over gentrification and affordable housing as American cities were growing increasingly unequal. A 2015 survey of Registered Environmental Justice Organization (REJOs) revealed that organizations have become more diverse in mission and focus, including land use planning, climate and food justice, energy poverty into their priorities, and calling for intersectional approaches between geography, sociology, medicine and health. They are also seeking further connections between environmental health, reproductive health and environmental exposure and linking these with concerns of economic policy (Larsen et al. , 2015).In summary today’s EJ movement in the U.S. may be seen as the result of the organizing of local black and brown communities of color fighting for dignified living conditions in the presence of legacies of environmental racism, at first, linking race to the location of commercial hazard facilities and health outcomes. From the late nineties onwards, as the national presence of localized networks pressured national agencies to prohibit discriminatory actions on the basis of race, the movement expanded their agenda, advocacy and on the ground action to other issues, such as climate change. For decades the environmental justice literature has studied the connection between race/ethnicity and proximity to toxic facilities in cities, and the work is now being leveraged to understand how justice and flood risk combine in coastal areas.1.2 From Traditional Flood Risk Assessments to a Flood Justice FramingAs people across a variety of cities experience the increasing effects of climate change, researchers’ interests in understanding the multi-dimensional nature of coastal areas - simultaneously attractive, biophysically dynamic, while subject to political decision making - has increased. In comparison to research from other environmental hazards, the literature regarding EJ implications of flood hazards is smaller and more recent. A whole issue of Regional Environmental Change was recently dedicated to research that takes inspiration from findings within the EJ literature, extending the field to find applicability to Flood Risk Management (FRM) (Thaler et al. , 2018).The research collected in the volume borrows notions of distributive and procedural justice and applies it to urban flood risk in both the U.S and European cities. Although notions of sensitivity and vulnerability have gained growing consideration in traditional FRM (Cutter et al. , 2009), as well as the notion that vulnerability to flooding may be only one of the issues among many others faced by low-income communities (Lopez-Marrero and Tschakert, 2011), assessments are often only able to convey an abstract snapshot with significant assumptions and uncertainties about risks and possible mitigation measures, simplified into variables easily measurable through cost-benefit analysis (Bos and Zwaneveld, 2017). Flood risk assessments and maps are frequently updated by authorities, as they incorporate new knowledge from modeling, however these alternations tend to take place closed doors and in largely opaque manner so that what was previously considered ‘safe’ under one model, now becomes ‘at risk’ with little opportunity for discussion with those who will be affected by this change (O’Hare and White, 2018).An example of both the opaqueness of maps and models is the ongoing debate between the City of New York, FEMA’s flood zones and their ongoing update. In PLANYC, Bloomberg’s 2007 vision for New York, authorities recognized that FEMA’s flood maps were severely outdated (the last revisions were carried out in 1983) and warned “in areas where insurers feel the risk is too great, or their ability to raise premiums is hampered by political or regulatory limitations, the risk burden will be shifted to the public as well as to banks and investors” (p.139). The stakes are so high that when in 2015, the federal government issued a preliminary draft of its updated 100-year flood maps, which greatly expanded New York City’s flood zones, the city rejected the maps. An additional 35,000 buildings, for a total of 72,000 buildings and 400,000 New York City residents were now in the 100-year floodplain, according to the update, which meant thousands of additional residents now had to purchase flood insurance (The New York Times, 2013). The city appealed by saying that as a result of technical errors, FEMA overestimated the size of the floodplain, with a resulting huge cost burden for homeowners and more so for low-income renters in public housing units built on the waterfront. FEMA agreed there were errors and that the maps should be revised, but for some planners, the fact that FEMA maps are often subject to such dispute is a cause for concern. Citizens are left in a limbo. Even though new maps allow property owners to check their address to determine whether they are in a flood zone, and how severe the flooding could be, there are considerable uncertainties around whether a home falling into a floodplain map will actually be affected by the next big storm.The distributive dimensions of injustice, like costs and benefits of measures to adapt to flooding through insurance, are influenced by broader, often intangible, process-based inequities. Vulnerability research shows that people living in poverty and/or socially marginalized have reduced capacity for self-protection in terms of mitigating flood hazards at home pre-event, evacuating in response to flooding, or returning home or to employment in the aftermath of a flooding event, accessing social protection such as flood insurance, hazard mitigation infrastructure, emergency response information and assistance (Green, Bates and Smyth, 2007; Collins, Grineski and Chakraborty, 2018). The distribution of emergency response may also be unequal. Based on physical damage calculations after superstorm Sandy, populations living in some NYCHA towers suffered disproportionately from delays in emergency response, living with no running water, heat or lack of repair work until long after the storm (Sellers, 2017).In conclusion flood risk researchers realized that the abstract and aggregate information of FRM need richer accounts provided by a justice framing in order “to capture fine-grained differences between affected populations, particularly those that are rooted in more complex societal disadvantage stemming from outside the flood risk arena” (O’Hare and White, 2018:385).
USE OF SAWDUST IN THE REMOVAL OF HEAVY METALS FROM OIL AND GAS PRODUCTION WASTEWATER
Praise Eromosele

Praise Eromosele

July 02, 2019
THE USE OF SAWDUST IN THE REMOVAL OF HEAVY METALS FROM OIL AND GAS PRODUCTION WASTEWATERAuthor: Praise Eromosele1 Scientific research supervisor: SElpidinsky Anton Aleksandrovich1Kazan National Research Technological University, Russia; praiseero@gmail.comKey Words. Sawdust, heavy metal ion (HMI), oil and gas production wastewater: (OGPW), adsorption, sorbentIntroduction. During oil and natural gas production, so-called “produced water” comprises the largest byproduct stream. Removal of HMIs from waste water is a prominent issue faced by many countries, especially developing ones. Treated waste water can be re-used in many ways. However, most widely-used methods such as ion exchange and membrane filtration are expensive. This has led to an in-depth research on the potentials of relatively cheaper and eco-friendlier methods than the ones currently in use.Aim. To analyze the potential of sawdust (a low-cost sorbent) in the adsorption of heavy metals from oil and gas produced wastewater and its advantages over other methods.Materials and Methods. Materials used in this research include: “Jihyun Lim et al, Removal of heavy metals from aqueous solution by sawdust adsorption , 27 Sept 2006”; “John Pichtel, Oil and Gas Production Wastewater: Soil Contamination and Pollution Prevention , 14 Feb 2016”; “Stefan Demcak et al, Utilization of poplar wood sawdust for heavy metal removal from model solutions , 1 Aug 2017”. The methods involved: reading, research, performing adsorption experiments with sawdust using metal ion solutions prepared from salts of heavy metals such as Pb, Cu, Zn.Results. Sawdust shows approximately 80%-98% efficiency for all model solutions. The amount of HMIs adsorbed increased with the increase in initial concentration and remained nearly constant after equilibrium. The quantity of HMIs removed decreases as pH decreases.Conclusion. Firstly, sawdust is a promising adsorbent for removal of HMIs from OGPW. At these adsorption levels, a process using sawdust for the removal and recovery of heavy metal ions is potentially more economical than the current technology like ion exchange and membrane filtration. Secondly, adsorption of heavy metal ions depends on their initial concentrations, pH, temperature, and contact time.
Analyzing and Prioritizing Complex Problems for Practical Action Research (Working Pa...
C

C

August 07, 2019
Practical action research is conducted to improve practice and resolve problems of practice. This involves working within complex scenarios that can be difficult to understand. Complexity can confound otherwise well designed research, creating misunderstanding and misinterpretation within the study itself, and indistinct communication about the study. The effects of complexity can be mitigated through systematic pre-study analysis that clarifies the problem, and provides a transparent decision-trail that is examinable by other researchers and stakeholders. In this article, we present a process for conducting such analysis. The presented method provides a systematic and transparent process for analyzing problems that: a) redounds to a contextually-sensitive, high-resolution articulation of the problem; and b) prioritizes deconstructed problem elements for follow-on research. This method is presented for use as a pre-study task to enhance the effectiveness of practical action research initiatives and transferability of findings.
Assumptions and Habits for Effective Scholarship
C

C

June 18, 2019
The process of social science scholarship - research, theoretical, methodological, and conceptual work - does not happen in isolation nor by accident. Scholarship builds on the ideas and efforts of others, challenges established orthodoxies, and provides the insights and evidence for a field of study. It is the collective process by which we've developed high resolution understandings of phenomena, solutions for complex problems, and more effective ways to flourish in our world. There is nothing natural about effective scholarship. Human nature tends toward confirmation bias, affiliatory preferences, and myopia. In other words, scholarship is a process that must be diligently maintained or it will regress back to the default characteristics of human nature. For something this important, there's surprisingly little discussion about the assumptions, norms, and habits under which we operate in scholarly environments. Perhaps it has always been assumed that those engaging in scholarship were naturally enculturated as part of their technical training. Maybe this was true at one point, but over the years, there has been a noticeable decline in many of the long-established informal scientific traditions. And to be clear, I am not referring to the differences between positivist and naturalist orientations, nor between quantitative and qualitative methods of research. What I am referring to here is a decline in a basic understanding of what constitutes good scholarship. This has been supplanted with a deterministic orientation to press a preferred narrative, and the subjugation of scholarship toward that end. That, of course, is not scholarship, it's advocacy. And while advocacy certainly has it's place, the two should not be conflated.The recognition of this decline has changed the way I introduce my  graduate students to research. Rather that assuming that certain assumptions and habits will germinate and develop naturally over time, I have begun explicitly articulating them as a launching point for discussions. As with any thesis, there are statements here that thoughtful people may disagree with; and I welcome any constructive feedback a/or criticisms.Assumptions and HabitsTo claim that you understand an idea you must be able to operationalize it, provide examples of it, and articulate what should follow from it.The scientific method does not prove, it only disproves. A theory only remains tenable through the accumulation of evidence that fails to refute it.  Research can be used selectively to support most any position. Examine the full body of evidence before accepting an evidence-based argument. Demagoguery does not edify nor does it further understanding of ideas. If you disagree with something, then present a better argument.Peer review does not necessarily mean quality. Know what constitutes quality scholarship so you can distinguish the good from the not so good.Scholarship is not immune to narrative, politics, and culture. Mind the exogenous influences when evaluating a body of scholarship.Statistical significance is not the same as practical importance. Know the established benchmarks within a field before evaluating the importance of a claim. Scholarship is grounded in reason. The integrity of an idea is what matters, not the passion that surrounds it.Affiliatory biases inhibit scholarship. Guard against reflexively accepting ideas because they are from within a familiar group or reflexively dismissing them because they are extrinsic to the group.Humility is the inevitable outcome of effective scholarship. Be cautions of those who claim to hold a monopoly on the truth.
← Previous 1 2 … 2730 2731 2732 2733 2734 2735 2736 2737 2738 … 2754 2755 Next →

| Powered by Authorea.com

  • Home