source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3908

Last change on this file since 3908 was 3908, checked in by matszpk, 13 months ago

CLRadeonExtender: AsmRegAlloc?: Use loop ssaIds from routineData instead loopSSAIdMaps.

File size: 120.5 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593    size_t prevSSAId; // for curSSAId
594};
595
596typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
597
598struct CLRX_INTERNAL RoutineData
599{
600    // rbwSSAIdMap - read before write SSAId's map
601    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
602    LastSSAIdMap curSSAIdMap;
603    LastSSAIdMap lastSSAIdMap;
604    // key - loop block, value - last ssaId map for loop end
605    std::unordered_map<size_t, LastSSAIdMap> loopEnds;
606    bool notFirstReturn;
607    size_t weight_;
608   
609    RoutineData() : notFirstReturn(false), weight_(0)
610    { }
611   
612    void calculateWeight()
613    {
614        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
615        for (const auto& entry: loopEnds)
616            weight_ += entry.second.weight();
617    }
618   
619    size_t weight() const
620    { return weight_; }
621};
622
623struct CLRX_INTERNAL FlowStackEntry
624{
625    size_t blockIndex;
626    size_t nextIndex;
627    bool isCall;
628    RetSSAIdMap prevRetSSAIdSets;
629};
630
631struct CLRX_INTERNAL FlowStackEntry2
632{
633    size_t blockIndex;
634    size_t nextIndex;
635};
636
637
638struct CLRX_INTERNAL CallStackEntry
639{
640    size_t callBlock; // index
641    size_t callNextIndex; // index of call next
642    size_t routineBlock;    // routine block
643};
644
645class ResSecondPointsToCache: public std::vector<bool>
646{
647public:
648    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
649    { }
650   
651    void increase(size_t i)
652    {
653        if ((*this)[i<<1])
654            (*this)[(i<<1)+1] = true;
655        else
656            (*this)[i<<1] = true;
657    }
658   
659    cxuint count(size_t i) const
660    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
661};
662
663typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
664typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
665
666static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
667              size_t origId, size_t destId)
668{
669    auto res = rmap.insert({ vreg, {} });
670    res.first->second.insertValue({ origId, destId });
671}
672
673static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
674            const LastSSAIdMap* stackVarMap,
675            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
676            FlowStackEntry2& entry, const SSAEntry& sentry,
677            RBWSSAIdMap* cacheSecPoints)
678{
679    const SSAInfo& sinfo = sentry.second;
680    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
681   
682    if (res.second && sinfo.readBeforeWrite)
683    {
684        if (cacheSecPoints != nullptr)
685        {
686            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
687            if (!res.second)
688                res.first->second.insertValue(sinfo.ssaIdBefore);
689        }
690       
691        if (stackVarMap != nullptr)
692        {
693           
694            // resolve conflict for this variable ssaId>.
695            // only if in previous block previous SSAID is
696            // read before all writes
697            auto it = stackVarMap->find(sentry.first);
698           
699            if (it != stackVarMap->end())
700            {
701                // found, resolve by set ssaIdLast
702                for (size_t ssaId: it->second)
703                {
704                    if (ssaId > sinfo.ssaIdBefore)
705                    {
706                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
707                            sentry.first.index  << ": " <<
708                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
709                        insertReplace(*replacesMap, sentry.first, ssaId,
710                                    sinfo.ssaIdBefore);
711                    }
712                    else if (ssaId < sinfo.ssaIdBefore)
713                    {
714                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
715                            sentry.first.index  << ": " <<
716                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
717                        insertReplace(*replacesMap, sentry.first,
718                                        sinfo.ssaIdBefore, ssaId);
719                    }
720                    /*else
721                        std::cout << "  noinsertreplace: " <<
722                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
723                }
724            }
725        }
726    }
727}
728
729typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
730
731static void useResSecPointCache(SSAReplacesMap* replacesMap,
732        const LastSSAIdMap* stackVarMap,
733        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
734        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
735        RBWSSAIdMap* destCacheSecPoints)
736{
737    std::cout << "use resSecPointCache for " << nextBlock <<
738            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
739    for (const auto& sentry: *resSecondPoints)
740    {
741        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
742        if (destCacheSecPoints != nullptr && !alreadyRead)
743        {
744            auto res = destCacheSecPoints->insert(sentry);
745            if (!res.second)
746                for (size_t srcSSAId: sentry.second)
747                    res.first->second.insertValue(srcSSAId);
748        }
749       
750        if (stackVarMap != nullptr)
751        {
752            auto it = stackVarMap->find(sentry.first);
753           
754            if (it != stackVarMap->end() && !alreadyRead)
755            {
756                // found, resolve by set ssaIdLast
757                for (size_t ssaId: it->second)
758                {
759                    for (size_t secSSAId: sentry.second)
760                    {
761                        if (ssaId > secSSAId)
762                        {
763                            std::cout << "  insertreplace: " <<
764                                sentry.first.regVar << ":" <<
765                                sentry.first.index  << ": " <<
766                                ssaId << ", " << secSSAId << std::endl;
767                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
768                        }
769                        else if (ssaId < secSSAId)
770                        {
771                            std::cout << "  insertreplace2: " <<
772                                sentry.first.regVar << ":" <<
773                                sentry.first.index  << ": " <<
774                                ssaId << ", " << secSSAId << std::endl;
775                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
776                        }
777                        /*else
778                            std::cout << "  noinsertreplace: " <<
779                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
780                    }
781                }
782            }
783        }
784    }
785}
786
787static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
788                const std::vector<CodeBlock>& codeBlocks,
789                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
790                size_t nextBlock)
791{
792    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
793    //std::stack<CallStackEntry> callStack = prevCallStack;
794    // traverse by graph from next block
795    std::deque<FlowStackEntry2> flowStack;
796    flowStack.push_back({ nextBlock, 0 });
797    std::vector<bool> visited(codeBlocks.size(), false);
798   
799    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
800   
801    RBWSSAIdMap cacheSecPoints;
802   
803    while (!flowStack.empty())
804    {
805        FlowStackEntry2& entry = flowStack.back();
806        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
807       
808        if (entry.nextIndex == 0)
809        {
810            // process current block
811            if (!visited[entry.blockIndex])
812            {
813                visited[entry.blockIndex] = true;
814                std::cout << "  resolv: " << entry.blockIndex << std::endl;
815               
816                const RBWSSAIdMap* resSecondPoints =
817                            resSecondPointsCache.use(entry.blockIndex);
818                if (resSecondPoints == nullptr)
819                    for (auto& sentry: cblock.ssaInfoMap)
820                        handleSSAEntryWhileResolving(nullptr, nullptr,
821                                alreadyReadMap, entry, sentry,
822                                &cacheSecPoints);
823                else // to use cache
824                {
825                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
826                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
827                    flowStack.pop_back();
828                    continue;
829                }
830            }
831            else
832            {
833                // back, already visited
834                std::cout << "resolv already: " << entry.blockIndex << std::endl;
835                flowStack.pop_back();
836                continue;
837            }
838        }
839       
840        /*if (!callStack.empty() &&
841            entry.blockIndex == callStack.top().callBlock &&
842            entry.nextIndex-1 == callStack.top().callNextIndex)
843            callStack.pop(); // just return from call
844        */
845        if (entry.nextIndex < cblock.nexts.size())
846        {
847            /*if (cblock.nexts[entry.nextIndex].isCall)
848                callStack.push({ entry.blockIndex, entry.nextIndex,
849                            cblock.nexts[entry.nextIndex].block });*/
850            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
851            entry.nextIndex++;
852        }
853        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
854                // if have any call then go to next block
855                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
856                 !cblock.haveReturn && !cblock.haveEnd)
857        {
858            // add toResolveMap ssaIds inside called routines
859            for (const auto& next: cblock.nexts)
860                if (next.isCall)
861                {
862                    const RoutineData& rdata = routineMap.find(next.block)->second;
863                    for (const auto& v: rdata.rbwSSAIdMap)
864                        alreadyReadMap.insert({v.first, entry.blockIndex });
865                    for (const auto& v: rdata.lastSSAIdMap)
866                        alreadyReadMap.insert({v.first, entry.blockIndex });
867                }
868           
869            flowStack.push_back({ entry.blockIndex+1, 0 });
870            entry.nextIndex++;
871        }
872        else // back
873        {
874            // remove old to resolve in leaved way to allow collecting next ssaId
875            // before write (can be different due to earlier visit)
876            for (const auto& next: cblock.nexts)
877                if (next.isCall)
878                {
879                    const RoutineData& rdata = routineMap.find(next.block)->second;
880                    for (const auto& v: rdata.rbwSSAIdMap)
881                    {
882                        auto it = alreadyReadMap.find(v.first);
883                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
884                            alreadyReadMap.erase(it);
885                    }
886                    for (const auto& v: rdata.lastSSAIdMap)
887                    {
888                        auto it = alreadyReadMap.find(v.first);
889                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
890                            alreadyReadMap.erase(it);
891                    }
892                }
893           
894            for (const auto& sentry: cblock.ssaInfoMap)
895            {
896                auto it = alreadyReadMap.find(sentry.first);
897                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
898                    // remove old to resolve in leaved way to allow collecting next ssaId
899                    // before write (can be different due to earlier visit)
900                    alreadyReadMap.erase(it);
901            }
902            std::cout << "  popresolv" << std::endl;
903            flowStack.pop_back();
904        }
905    }
906   
907    resSecondPointsCache.put(nextBlock, cacheSecPoints);
908}
909
910
911static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
912        const std::unordered_map<size_t, RoutineData>& routineMap,
913        const std::vector<CodeBlock>& codeBlocks,
914        const PrevWaysIndexMap& prevWaysIndexMap,
915        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
916        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
917        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
918        SSAReplacesMap& replacesMap)
919{
920    size_t nextBlock = prevFlowStack.back().blockIndex;
921    auto pfEnd = prevFlowStack.end();
922    --pfEnd;
923    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
924    LastSSAIdMap stackVarMap;
925   
926    size_t pfStartIndex = 0;
927    {
928        auto pfPrev = pfEnd;
929        --pfPrev;
930        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
931        if (it != prevWaysIndexMap.end())
932        {
933            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
934            if (cached!=nullptr)
935            {
936                std::cout << "use pfcached: " << it->second.first << ", " <<
937                        it->second.second << std::endl;
938                stackVarMap = *cached;
939                pfStartIndex = it->second.second+1;
940            }
941        }
942    }
943   
944    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
945    {
946        const FlowStackEntry2& entry = *pfit;
947        std::cout << "  apply: " << entry.blockIndex << std::endl;
948        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
949        for (const auto& sentry: cblock.ssaInfoMap)
950        {
951            const SSAInfo& sinfo = sentry.second;
952            if (sinfo.ssaIdChange != 0)
953                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
954        }
955        if (entry.nextIndex > cblock.nexts.size())
956            for (const NextBlock& next: cblock.nexts)
957                if (next.isCall)
958                {
959                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
960                            entry.nextIndex << ": " << next.block << std::endl;
961                    const LastSSAIdMap& regVarMap =
962                            routineMap.find(next.block)->second.lastSSAIdMap;
963                    for (const auto& sentry: regVarMap)
964                        stackVarMap[sentry.first] = sentry.second;
965                }
966       
967        // put to first point cache
968        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
969        {
970            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
971            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
972        }
973    }
974   
975    RBWSSAIdMap cacheSecPoints;
976    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
977                cblocksToCache.count(nextBlock)>=2;
978   
979    //std::stack<CallStackEntry> callStack = prevCallStack;
980    // traverse by graph from next block
981    std::deque<FlowStackEntry2> flowStack;
982    flowStack.push_back({ nextBlock, 0 });
983    std::vector<bool> visited(codeBlocks.size(), false);
984   
985    // already read in current path
986    // key - vreg, value - source block where vreg of conflict found
987    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
988   
989    while (!flowStack.empty())
990    {
991        FlowStackEntry2& entry = flowStack.back();
992        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
993       
994        if (entry.nextIndex == 0)
995        {
996            // process current block
997            if (!visited[entry.blockIndex])
998            {
999                visited[entry.blockIndex] = true;
1000                std::cout << "  resolv: " << entry.blockIndex << std::endl;
1001               
1002                const RBWSSAIdMap* resSecondPoints =
1003                        resSecondPointsCache.use(entry.blockIndex);
1004                if (resSecondPoints == nullptr)
1005                    for (auto& sentry: cblock.ssaInfoMap)
1006                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
1007                                alreadyReadMap, entry, sentry,
1008                                toCache ? &cacheSecPoints : nullptr);
1009                else // to use cache
1010                {
1011                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1012                            resSecondPoints, entry.blockIndex,
1013                            toCache ? &cacheSecPoints : nullptr);
1014                    flowStack.pop_back();
1015                    continue;
1016                }
1017            }
1018            else
1019            {
1020                cblocksToCache.increase(entry.blockIndex);
1021                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1022                            cblocksToCache.count(entry.blockIndex) << std::endl;
1023                // back, already visited
1024                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1025                flowStack.pop_back();
1026                continue;
1027            }
1028        }
1029       
1030        /*if (!callStack.empty() &&
1031            entry.blockIndex == callStack.top().callBlock &&
1032            entry.nextIndex-1 == callStack.top().callNextIndex)
1033            callStack.pop(); // just return from call
1034        */
1035        if (entry.nextIndex < cblock.nexts.size())
1036        {
1037            /*if (cblock.nexts[entry.nextIndex].isCall)
1038                callStack.push({ entry.blockIndex, entry.nextIndex,
1039                            cblock.nexts[entry.nextIndex].block });*/
1040            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1041            entry.nextIndex++;
1042        }
1043        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1044                // if have any call then go to next block
1045                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1046                 !cblock.haveReturn && !cblock.haveEnd)
1047        {
1048            // add toResolveMap ssaIds inside called routines
1049            for (const auto& next: cblock.nexts)
1050                if (next.isCall)
1051                {
1052                    const RoutineData& rdata = routineMap.find(next.block)->second;
1053                    for (const auto& v: rdata.rbwSSAIdMap)
1054                        alreadyReadMap.insert({v.first, entry.blockIndex });
1055                    for (const auto& v: rdata.lastSSAIdMap)
1056                        alreadyReadMap.insert({v.first, entry.blockIndex });
1057                }
1058           
1059            flowStack.push_back({ entry.blockIndex+1, 0 });
1060            entry.nextIndex++;
1061        }
1062        else // back
1063        {
1064            // remove old to resolve in leaved way to allow collecting next ssaId
1065            // before write (can be different due to earlier visit)
1066            for (const auto& next: cblock.nexts)
1067                if (next.isCall)
1068                {
1069                    const RoutineData& rdata = routineMap.find(next.block)->second;
1070                    for (const auto& v: rdata.rbwSSAIdMap)
1071                    {
1072                        auto it = alreadyReadMap.find(v.first);
1073                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1074                            alreadyReadMap.erase(it);
1075                    }
1076                    for (const auto& v: rdata.lastSSAIdMap)
1077                    {
1078                        auto it = alreadyReadMap.find(v.first);
1079                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1080                            alreadyReadMap.erase(it);
1081                    }
1082                }
1083           
1084            for (const auto& sentry: cblock.ssaInfoMap)
1085            {
1086                auto it = alreadyReadMap.find(sentry.first);
1087                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1088                    // remove old to resolve in leaved way to allow collecting next ssaId
1089                    // before write (can be different due to earlier visit)
1090                    alreadyReadMap.erase(it);
1091            }
1092            std::cout << "  popresolv" << std::endl;
1093           
1094            if (cblocksToCache.count(entry.blockIndex)==2 &&
1095                !resSecondPointsCache.hasKey(entry.blockIndex))
1096                // add to cache
1097                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1098                            entry.blockIndex);
1099           
1100            flowStack.pop_back();
1101        }
1102    }
1103   
1104    if (toCache)
1105        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1106}
1107
1108static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1109                size_t routineBlock)
1110{
1111    for (const auto& entry: src)
1112    {
1113        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1114                cxuint(entry.first.index) << ":";
1115        for (size_t v: entry.second)
1116            std::cout << " " << v;
1117        std::cout << std::endl;
1118        // insert if not inserted
1119        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1120        if (res.second)
1121            continue; // added new
1122        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1123        res.first->second.routines.push_back(routineBlock);
1124        // add new ways
1125        for (size_t ssaId: entry.second)
1126            destEntry.insertValue(ssaId);
1127        std::cout << "    :";
1128        for (size_t v: destEntry)
1129            std::cout << " " << v;
1130        std::cout << std::endl;
1131    }
1132}
1133
1134static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1135{
1136    for (const auto& entry: src)
1137    {
1138        std::cout << "  entry: " << entry.first.regVar << ":" <<
1139                cxuint(entry.first.index) << ":";
1140        for (size_t v: entry.second)
1141            std::cout << " " << v;
1142        std::cout << std::endl;
1143        auto res = dest.insert(entry); // find
1144        if (res.second)
1145            continue; // added new
1146        VectorSet<size_t>& destEntry = res.first->second;
1147        // add new ways
1148        for (size_t ssaId: entry.second)
1149            destEntry.insertValue(ssaId);
1150        std::cout << "    :";
1151        for (size_t v: destEntry)
1152            std::cout << " " << v;
1153        std::cout << std::endl;
1154    }
1155}
1156
1157static void joinLastSSAIdMapInt(LastSSAIdMap& dest, const LastSSAIdMap& src,
1158                    const LastSSAIdMap& laterRdataCurSSAIdMap,
1159                    const LastSSAIdMap& laterRdataLastSSAIdMap, bool loop)
1160{
1161    for (const auto& entry: src)
1162    {
1163        auto lsit = laterRdataLastSSAIdMap.find(entry.first);
1164        if (lsit != laterRdataLastSSAIdMap.end())
1165        {
1166            auto csit = laterRdataCurSSAIdMap.find(entry.first);
1167            if (csit != laterRdataCurSSAIdMap.end() && !csit->second.empty())
1168            {
1169                // if found in last ssa ID map,
1170                // but has first value (some way do not change SSAId)
1171                // then pass to add new ssaIds before this point
1172                if (!lsit->second.hasValue(csit->second[0]))
1173                    continue; // otherwise, skip
1174            }
1175            else
1176                continue;
1177        }
1178        std::cout << "  entry: " << entry.first.regVar << ":" <<
1179                cxuint(entry.first.index) << ":";
1180        for (size_t v: entry.second)
1181            std::cout << " " << v;
1182        std::cout << std::endl;
1183        auto res = dest.insert(entry); // find
1184        if (res.second)
1185            continue; // added new
1186        VectorSet<size_t>& destEntry = res.first->second;
1187        // add new ways
1188        for (size_t ssaId: entry.second)
1189            destEntry.insertValue(ssaId);
1190        std::cout << "    :";
1191        for (size_t v: destEntry)
1192            std::cout << " " << v;
1193        std::cout << std::endl;
1194    }
1195    if (!loop) // do not if loop
1196        joinLastSSAIdMap(dest, laterRdataLastSSAIdMap);
1197}
1198
1199static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1200                    const RoutineData& laterRdata, bool loop = false)
1201{
1202    joinLastSSAIdMapInt(dest, src, laterRdata.curSSAIdMap, laterRdata.lastSSAIdMap, loop);
1203}
1204
1205
1206static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1207{
1208    // insert readBeforeWrite only if doesnt exists in destination
1209    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1210   
1211    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1212   
1213    for (const auto& entry: src.lastSSAIdMap)
1214    {
1215        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1216                cxuint(entry.first.index) << ":";
1217        for (size_t v: entry.second)
1218            std::cout << " " << v;
1219        std::cout << std::endl;
1220        auto res = dest.curSSAIdMap.insert(entry); // find
1221        VectorSet<size_t>& destEntry = res.first->second;
1222        if (!res.second)
1223        {
1224            // add new ways
1225            for (size_t ssaId: entry.second)
1226                destEntry.insertValue(ssaId);
1227        }
1228        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1229        if (rbwit != src.rbwSSAIdMap.end() &&
1230            // remove only if not in src lastSSAIdMap
1231            std::find(entry.second.begin(), entry.second.end(),
1232                      rbwit->second) == entry.second.end())
1233            destEntry.eraseValue(rbwit->second);
1234        std::cout << "    :";
1235        for (size_t v: destEntry)
1236            std::cout << " " << v;
1237        std::cout << std::endl;
1238    }
1239}
1240
1241static bool reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1242            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1243            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1244{
1245    SSAInfo& sinfo = ssaEntry.second;
1246    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1247    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1248    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1249    {
1250        auto& ssaIds = ssaIdsIt->second.ssaIds;
1251       
1252        if (ssaIds.size() >= 2)
1253        {
1254            // reduce to minimal ssaId from all calls
1255            std::sort(ssaIds.begin(), ssaIds.end());
1256            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1257            // insert SSA replaces
1258            size_t minSSAId = ssaIds.front();
1259            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1260                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1261            ssaId = minSSAId+1; // plus one
1262        }
1263        else if (ssaIds.size() == 1)
1264            ssaId = ssaIds.front()+1; // plus one
1265       
1266        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1267                ssaEntry.first.index << ": " << ssaId << std::endl;
1268        // replace smallest ssaId in routineMap lastSSAId entry
1269        // reduce SSAIds replaces
1270        for (size_t rblock: ssaIdsIt->second.routines)
1271            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1272                            VectorSet<size_t>({ ssaId-1 });
1273        // finally remove from container (because obsolete)
1274        retSSAIdMap.erase(ssaIdsIt);
1275        return true;
1276    }
1277    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1278    {
1279        // put before removing to revert for other ways after calls
1280        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1281        if (res.second)
1282            res.first->second = ssaIdsIt->second;
1283        // just remove, if some change without read before
1284        retSSAIdMap.erase(ssaIdsIt);
1285    }
1286    return false;
1287}
1288
1289static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1290                size_t prevSSAId)
1291{
1292    const SSAInfo& sinfo = ssaEntry.second;
1293    bool beforeFirstAccess = true;
1294    // put first SSAId before write
1295    if (sinfo.readBeforeWrite)
1296    {
1297        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1298        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1299            // if already added
1300            beforeFirstAccess = false;
1301    }
1302   
1303    if (sinfo.ssaIdChange != 0)
1304    {
1305        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1306        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1307        // put last SSAId
1308        if (!res.second)
1309        {
1310            beforeFirstAccess = false;
1311            // if not inserted
1312            VectorSet<size_t>& ssaIds = res.first->second;
1313            ssaIds.eraseValue(prevSSAId);
1314            ssaIds.insertValue(sinfo.ssaIdLast);
1315        }
1316        // add readbefore if in previous returns if not added yet
1317        if (rdata.notFirstReturn && beforeFirstAccess)
1318        {
1319            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1320            for (auto& loopEnd: rdata.loopEnds)
1321                loopEnd.second.insert({ ssaEntry.first, { prevSSAId } });
1322        }
1323    }
1324    else
1325    {
1326        // insert read ssaid if no change
1327        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1328        if (!res.second)
1329        {
1330            VectorSet<size_t>& ssaIds = res.first->second;
1331            ssaIds.insertValue(prevSSAId);
1332        }
1333    }
1334}
1335
1336static void initializePrevRetSSAIds(const CodeBlock& cblock,
1337            const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1338            const RetSSAIdMap& retSSAIdMap, const RoutineData& rdata,
1339            FlowStackEntry& entry)
1340{
1341    for (const auto& v: rdata.lastSSAIdMap)
1342    {
1343        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1344        if (!res.second)
1345            continue; // already added, do not change
1346        auto rfit = retSSAIdMap.find(v.first);
1347        if (rfit != retSSAIdMap.end())
1348            res.first->second = rfit->second;
1349       
1350        auto cbsit = cblock.ssaInfoMap.find(v.first);
1351        auto csit = curSSAIdMap.find(v.first);
1352        res.first->second.prevSSAId = cbsit!=cblock.ssaInfoMap.end() ?
1353                cbsit->second.ssaIdBefore : (csit!=curSSAIdMap.end() ? csit->second : 0);
1354    }
1355}
1356
1357static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1358            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1359{
1360    // revert retSSAIdMap
1361    for (auto v: entry.prevRetSSAIdSets)
1362    {
1363        auto rfit = retSSAIdMap.find(v.first);
1364        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1365        {
1366            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1367            for (size_t ssaId: rfit->second.ssaIds)
1368                ssaIds.eraseValue(ssaId);
1369        }
1370       
1371        if (!v.second.ssaIds.empty())
1372        {
1373            // just add if previously present
1374            if (rfit != retSSAIdMap.end())
1375                rfit->second = v.second;
1376            else
1377                retSSAIdMap.insert(v);
1378        }
1379        else // erase if empty
1380            retSSAIdMap.erase(v.first);
1381       
1382        if (rdata!=nullptr)
1383        {
1384            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1385            for (size_t ssaId: v.second.ssaIds)
1386                ssaIds.insertValue(ssaId);
1387            if (v.second.ssaIds.empty())
1388            {
1389                auto cit = curSSAIdMap.find(v.first);
1390                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 0)-1);
1391            }
1392           
1393            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1394                    v.first.regVar << ":" << v.first.index << ":";
1395            for (size_t v: ssaIds)
1396                std::cout << " " << v;
1397            std::cout << std::endl;
1398        }
1399        curSSAIdMap[v.first] = v.second.prevSSAId;
1400    }
1401}
1402
1403static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1404            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1405{
1406    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1407    std::cout << " pushentry " << entry.blockIndex << ": " <<
1408                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1409    for (size_t v: ssaIds)
1410        std::cout << " " << v;
1411    std::cout << std::endl;
1412   
1413    // if cblock with some children
1414    if (nextSSAId != curSSAId)
1415        ssaIds.eraseValue(nextSSAId-1);
1416   
1417    // push previous SSAId to lastSSAIdMap (later will be replaced)
1418    /*std::cout << "call back: " << nextSSAId << "," <<
1419            (curSSAId) << std::endl;*/
1420    ssaIds.insertValue(curSSAId-1);
1421   
1422    std::cout << " popentry " << entry.blockIndex << ": " <<
1423                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1424    for (size_t v: ssaIds)
1425        std::cout << " " << v;
1426    std::cout << std::endl;
1427}
1428
1429struct CLRX_INTERNAL LoopSSAIdMap
1430{
1431    LastSSAIdMap ssaIdMap;
1432    bool passed;
1433};
1434
1435static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1436        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1437        const std::unordered_set<size_t>& loopBlocks,
1438        const ResSecondPointsToCache& subroutToCache,
1439        SimpleCache<size_t, RoutineData>& subroutinesCache,
1440        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1441        size_t routineBlock, bool noMainLoop = false,
1442        const std::vector<bool>& prevFlowStackBlocks = {})
1443{
1444    std::cout << "--------- createRoutineData ----------------\n";
1445    std::vector<bool> visited(codeBlocks.size(), false);
1446    std::deque<FlowStackEntry> flowStack;
1447    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1448    if (!prevFlowStackBlocks.empty())
1449        flowStackBlocks = prevFlowStackBlocks;
1450    // last SSA ids map from returns
1451    RetSSAIdMap retSSAIdMap;
1452    flowStack.push_back({ routineBlock, 0 });
1453    flowStackBlocks[routineBlock] = true;
1454   
1455    std::unordered_map<size_t, LoopSSAIdMap> loopSSAIdMap;
1456   
1457    while (!flowStack.empty())
1458    {
1459        FlowStackEntry& entry = flowStack.back();
1460        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1461       
1462        if (entry.nextIndex == 0)
1463        {
1464            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1465           
1466            if (!prevFlowStackBlocks.empty() && prevFlowStackBlocks[entry.blockIndex])
1467            {
1468                if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1469                {
1470                    // handle loops
1471                    std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1472                    auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1473                    if (loopsit != loopSSAIdMap.end())
1474                    {
1475                        if (!loopsit->second.passed)
1476                            // still in loop join ssaid map
1477                            joinLastSSAIdMap(loopsit->second.ssaIdMap, rdata.curSSAIdMap);
1478                    }
1479                    else // insert new
1480                        loopsit = loopSSAIdMap.insert({ entry.blockIndex,
1481                                    { rdata.curSSAIdMap, false } }).first;
1482                   
1483                    // add to routine data loopEnds
1484                    auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1485                    if (loopsit2 != rdata.loopEnds.end())
1486                    {
1487                        if (!loopsit->second.passed)
1488                            // still in loop join ssaid map
1489                            joinLastSSAIdMap(loopsit2->second, rdata.curSSAIdMap);
1490                    }
1491                    else
1492                        rdata.loopEnds.insert({ entry.blockIndex, rdata.curSSAIdMap });
1493                }
1494               
1495                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1496                flowStack.pop_back();
1497                continue;
1498            }
1499           
1500            // process current block
1501            //if (/*cachedRdata != nullptr &&*/
1502                //visited[entry.blockIndex] && flowStack.size() > 1)
1503            const RoutineData* cachedRdata = nullptr;
1504           
1505            if (routineBlock != entry.blockIndex)
1506            {
1507                cachedRdata = subroutinesCache.use(entry.blockIndex);
1508                if (cachedRdata == nullptr)
1509                {
1510                    // try in routine map
1511                    auto rit = routineMap.find(entry.blockIndex);
1512                    if (rit != routineMap.end())
1513                        cachedRdata = &rit->second;
1514                }
1515                if (!isLoop && visited[entry.blockIndex] && cachedRdata == nullptr &&
1516                    subroutToCache.count(entry.blockIndex)!=0)
1517                {
1518                    RoutineData subrData;
1519                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1520                    const bool oldFB = flowStackBlocks[entry.blockIndex];
1521                    flowStackBlocks[entry.blockIndex] = !oldFB;
1522                    createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1523                        subroutinesCache, routineMap, subrData, entry.blockIndex, true,
1524                        flowStackBlocks);
1525                    flowStackBlocks[entry.blockIndex] = oldFB;
1526                    if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1527                    {   // leave from loop point
1528                        std::cout << "   loopfound " << entry.blockIndex << std::endl;
1529                        auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1530                        if (loopsit2 != rdata.loopEnds.end())
1531                        {
1532                            std::cout << "   loopssaId2Map: " <<
1533                                    entry.blockIndex << std::endl;
1534                            joinLastSSAIdMap(subrData.lastSSAIdMap,
1535                                    loopsit2->second, subrData, true);
1536                            std::cout << "   loopssaIdMap2End: " << std::endl;
1537                        }
1538                    }
1539                    subrData.calculateWeight();
1540                    subroutinesCache.put(entry.blockIndex, subrData);
1541                   
1542                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1543                }
1544            }
1545           
1546            if (cachedRdata != nullptr)
1547            {
1548                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1549                std::cout << "procret2: " << entry.blockIndex << std::endl;
1550                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1551               
1552                // join loopEnds
1553                for (const auto& loopEnd: cachedRdata->loopEnds)
1554                {
1555                    auto res = rdata.loopEnds.insert({ loopEnd.first, { } });
1556                    joinLastSSAIdMapInt(res.first->second, rdata.curSSAIdMap,
1557                                cachedRdata->curSSAIdMap, loopEnd.second, false);
1558                }
1559                std::cout << "procretend2" << std::endl;
1560                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1561                flowStack.pop_back();
1562                continue;
1563            }
1564            else if (!visited[entry.blockIndex])
1565            {
1566                std::cout << "proc: " << entry.blockIndex << std::endl;
1567                visited[entry.blockIndex] = true;
1568               
1569                for (const auto& ssaEntry: cblock.ssaInfoMap)
1570                    if (ssaEntry.first.regVar != nullptr)
1571                    {
1572                        // put data to routine data
1573                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1574                       
1575                        if (ssaEntry.second.ssaIdChange!=0)
1576                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1577                    }
1578            }
1579            else if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1580            {
1581                // handle loops
1582                std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1583                auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1584                if (loopsit != loopSSAIdMap.end())
1585                {
1586                    if (!loopsit->second.passed)
1587                        // still in loop join ssaid map
1588                        joinLastSSAIdMap(loopsit->second.ssaIdMap, rdata.curSSAIdMap);
1589                }
1590                else // insert new
1591                    loopsit = loopSSAIdMap.insert({ entry.blockIndex,
1592                                { rdata.curSSAIdMap, false } }).first;
1593               
1594                // add to routine data loopEnds
1595                auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1596                if (loopsit2 != rdata.loopEnds.end())
1597                {
1598                    if (!loopsit->second.passed)
1599                        // still in loop join ssaid map
1600                        joinLastSSAIdMap(loopsit2->second, rdata.curSSAIdMap);
1601                }
1602                else
1603                    rdata.loopEnds.insert({ entry.blockIndex, rdata.curSSAIdMap });
1604               
1605                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1606                flowStack.pop_back();
1607                continue;
1608            }
1609            else
1610            {
1611                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1612                flowStack.pop_back();
1613                continue;
1614            }
1615        }
1616       
1617        // join and skip calls
1618        for (; entry.nextIndex < cblock.nexts.size() &&
1619                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1620            joinRoutineData(rdata, routineMap.find(
1621                            cblock.nexts[entry.nextIndex].block)->second);
1622       
1623        if (entry.nextIndex < cblock.nexts.size())
1624        {
1625            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1626            flowStack.push_back({ nextBlock, 0 });
1627            // negate - if true (already in flowstack, then popping keep this state)
1628            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1629            entry.nextIndex++;
1630        }
1631        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1632                // if have any call then go to next block
1633                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1634                 !cblock.haveReturn && !cblock.haveEnd)
1635        {
1636            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1637            {
1638                for (const NextBlock& next: cblock.nexts)
1639                    if (next.isCall)
1640                    {
1641                        //std::cout << "joincall:"<< next.block << std::endl;
1642                        auto it = routineMap.find(next.block); // must find
1643                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1644                                    it->second, entry);
1645                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1646                    }
1647            }
1648            const size_t nextBlock = entry.blockIndex+1;
1649            flowStack.push_back({ nextBlock, 0 });
1650            // negate - if true (already in flowstack, then popping keep this state)
1651            flowStackBlocks[nextBlock] = !flowStackBlocks[nextBlock];
1652            entry.nextIndex++;
1653        }
1654        else
1655        {
1656            std::cout << "popstart: " << entry.blockIndex << std::endl;
1657            if (cblock.haveReturn)
1658            {
1659                std::cout << "procret: " << entry.blockIndex << std::endl;
1660                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1661                std::cout << "procretend" << std::endl;
1662                rdata.notFirstReturn = true;
1663            }
1664           
1665            // revert retSSAIdMap
1666            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1667            //
1668           
1669            for (const auto& ssaEntry: cblock.ssaInfoMap)
1670            {
1671                if (ssaEntry.first.regVar == nullptr)
1672                    continue;
1673                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1674                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1675                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1676                curSSAIdMap[ssaEntry.first] = curSSAId;
1677               
1678                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1679                            ":" << ssaEntry.first.index << ": " <<
1680                            nextSSAId << ", " << curSSAId << std::endl;
1681               
1682                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1683            }
1684           
1685            auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1686            auto loopsit2 = rdata.loopEnds.find(entry.blockIndex);
1687            if (flowStack.size() > 1 && subroutToCache.count(entry.blockIndex)!=0)
1688            { //put to cache
1689                RoutineData subrData;
1690                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1691                flowStackBlocks[entry.blockIndex] = false;
1692                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1693                        subroutinesCache, routineMap, subrData, entry.blockIndex, true,
1694                        flowStackBlocks);
1695                flowStackBlocks[entry.blockIndex] = true;
1696                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1697                {   // leave from loop point
1698                    std::cout << "   loopfound: " << entry.blockIndex << std::endl;
1699                    if (loopsit2 != rdata.loopEnds.end())
1700                    {
1701                        std::cout << "   loopssaIdMap: " << entry.blockIndex << std::endl;
1702                        joinLastSSAIdMap(subrData.lastSSAIdMap, loopsit2->second,
1703                                         subrData, true);
1704                        std::cout << "   loopssaIdMapEnd: " << std::endl;
1705                        // for main routine now
1706                        joinLastSSAIdMap(rdata.lastSSAIdMap, loopsit2->second,
1707                                        subrData, true);
1708                    }
1709                }
1710                subrData.calculateWeight();
1711                subroutinesCache.put(entry.blockIndex, subrData);
1712            }
1713            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1714            {
1715                if (loopsit != loopSSAIdMap.end())
1716                {
1717                    std::cout << "   mark loopblocks passed: " <<
1718                                entry.blockIndex << std::endl;
1719                    // mark that loop has passed fully
1720                    loopsit->second.passed = true;
1721                }
1722                else
1723                    std::cout << "   loopblocks nopassed: " <<
1724                                entry.blockIndex << std::endl;
1725            }
1726           
1727            flowStackBlocks[entry.blockIndex] = false;
1728            std::cout << "pop: " << entry.blockIndex << std::endl;
1729            flowStack.pop_back();
1730        }
1731    }
1732    std::cout << "--------- createRoutineData end ------------\n";
1733}
1734
1735
1736void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1737{
1738    if (codeBlocks.empty())
1739        return;
1740    usageHandler.rewind();
1741    auto cbit = codeBlocks.begin();
1742    AsmRegVarUsage rvu;
1743    if (!usageHandler.hasNext())
1744        return; // do nothing if no regusages
1745    rvu = usageHandler.nextUsage();
1746   
1747    cxuint regRanges[MAX_REGTYPES_NUM*2];
1748    cxuint realRegsCount[MAX_REGTYPES_NUM];
1749    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1750    size_t regTypesNum;
1751    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1752   
1753    while (true)
1754    {
1755        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1756        {
1757            cbit->usagePos = usageHandler.getReadPos();
1758            ++cbit;
1759        }
1760        if (cbit == codeBlocks.end())
1761            break;
1762        // skip rvu's before codeblock
1763        while (rvu.offset < cbit->start && usageHandler.hasNext())
1764            rvu = usageHandler.nextUsage();
1765        if (rvu.offset < cbit->start)
1766            break;
1767       
1768        cbit->usagePos = usageHandler.getReadPos();
1769        while (rvu.offset < cbit->end)
1770        {
1771            // process rvu
1772            // only if regVar
1773            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1774            {
1775                auto res = cbit->ssaInfoMap.insert(
1776                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1777               
1778                SSAInfo& sinfo = res.first->second;
1779                if (res.second)
1780                    sinfo.firstPos = rvu.offset;
1781                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1782                    // if first write RVU instead read RVU
1783                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1784                    sinfo.readBeforeWrite = true;
1785                /* change SSA id only for write-only regvars -
1786                 *   read-write place can not have two different variables */
1787                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1788                    sinfo.ssaIdChange++;
1789                if (rvu.regVar==nullptr)
1790                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1791                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1792            }
1793            // get next rvusage
1794            if (!usageHandler.hasNext())
1795                break;
1796            rvu = usageHandler.nextUsage();
1797        }
1798        ++cbit;
1799    }
1800   
1801    size_t rbwCount = 0;
1802    size_t wrCount = 0;
1803   
1804    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1805   
1806    std::deque<CallStackEntry> callStack;
1807    std::deque<FlowStackEntry> flowStack;
1808    // total SSA count
1809    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1810    // last SSA ids map from returns
1811    RetSSAIdMap retSSAIdMap;
1812    // last SSA ids in current way in code flow
1813    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1814    // routine map - routine datas map, value - last SSA ids map
1815    std::unordered_map<size_t, RoutineData> routineMap;
1816    // key - current res first key, value - previous first key and its flowStack pos
1817    PrevWaysIndexMap prevWaysIndexMap;
1818    // to track ways last block indices pair: block index, flowStackPos)
1819    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1820    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1821   
1822    std::vector<bool> waysToCache(codeBlocks.size(), false);
1823    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1824    // subroutToCache - true if given block begin subroutine to cache
1825    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1826    std::vector<bool> visited(codeBlocks.size(), false);
1827    flowStack.push_back({ 0, 0 });
1828    flowStackBlocks[0] = true;
1829    std::unordered_set<size_t> loopBlocks;
1830   
1831    while (!flowStack.empty())
1832    {
1833        FlowStackEntry& entry = flowStack.back();
1834        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1835       
1836        if (entry.nextIndex == 0)
1837        {
1838            // process current block
1839            if (!visited[entry.blockIndex])
1840            {
1841                std::cout << "proc: " << entry.blockIndex << std::endl;
1842                visited[entry.blockIndex] = true;
1843               
1844                for (auto& ssaEntry: cblock.ssaInfoMap)
1845                {
1846                    SSAInfo& sinfo = ssaEntry.second;
1847                    if (ssaEntry.first.regVar==nullptr)
1848                    {
1849                        // TODO - pass registers through SSA marking and resolving
1850                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1851                        continue; // no change for registers
1852                    }
1853                   
1854                    bool reducedSSAId = reduceSSAIds(curSSAIdMap, retSSAIdMap,
1855                                routineMap, ssaReplacesMap, entry, ssaEntry);
1856                   
1857                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1858                   
1859                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1860                    if (totalSSACount == 0)
1861                    {
1862                        // first read before write at all, need change totalcount, ssaId
1863                        ssaId++;
1864                        totalSSACount++;
1865                    }
1866                   
1867                    sinfo.ssaId = totalSSACount;
1868                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1869                    sinfo.ssaIdBefore = ssaId-1;
1870                   
1871                    totalSSACount += sinfo.ssaIdChange;
1872                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1873                    //totalSSACount = std::max(totalSSACount, ssaId);
1874                    if (!reducedSSAId || sinfo.ssaIdChange!=0)
1875                        ssaId = totalSSACount;
1876                   
1877                    /*if (!callStack.empty())
1878                        // put data to routine data
1879                        updateRoutineData(routineMap.find(
1880                            callStack.back().routineBlock)->second, ssaEntry);*/
1881                       
1882                    // count read before writes (for cache weight)
1883                    if (sinfo.readBeforeWrite)
1884                        rbwCount++;
1885                    if (sinfo.ssaIdChange!=0)
1886                        wrCount++;
1887                }
1888            }
1889            else
1890            {
1891                // TODO: correctly join this path with routine data
1892                // currently does not include further substitutions in visited path
1893                /*RoutineData* rdata = nullptr;
1894                if (!callStack.empty())
1895                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1896               
1897                if (!entry.isCall && rdata != nullptr)
1898                {
1899                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1900                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1901                    std::cout << "procretend2" << std::endl;
1902                }*/
1903               
1904                // handle caching for res second point
1905                cblocksToCache.increase(entry.blockIndex);
1906                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1907                            cblocksToCache.count(entry.blockIndex) << std::endl;
1908                // back, already visited
1909                flowStackBlocks[entry.blockIndex] = !flowStackBlocks[entry.blockIndex];
1910                flowStack.pop_back();
1911               
1912                size_t curWayBIndex = flowStack.back().blockIndex;
1913                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1914                {
1915                    // mark point of way to cache (res first point)
1916                    waysToCache[lastCommonCacheWayPoint.first] = true;
1917                    std::cout << "mark to pfcache " <<
1918                            lastCommonCacheWayPoint.first << ", " <<
1919                            curWayBIndex << std::endl;
1920                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1921                }
1922                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1923                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1924                continue;
1925            }
1926        }
1927       
1928        if (!callStack.empty() &&
1929            entry.blockIndex == callStack.back().callBlock &&
1930            entry.nextIndex-1 == callStack.back().callNextIndex)
1931        {
1932            std::cout << " ret: " << entry.blockIndex << std::endl;
1933            RoutineData& prevRdata =
1934                    routineMap.find(callStack.back().routineBlock)->second;
1935            if (!isRoutineGen[callStack.back().routineBlock])
1936            {
1937                //RoutineData myRoutineData;
1938                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
1939                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
1940                            callStack.back().routineBlock);
1941                //prevRdata.compare(myRoutineData);
1942                isRoutineGen[callStack.back().routineBlock] = true;
1943            }
1944            callStack.pop_back(); // just return from call
1945            if (!callStack.empty())
1946                // put to parent routine
1947                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1948                                    prevRdata);
1949        }
1950       
1951        if (entry.nextIndex < cblock.nexts.size())
1952        {
1953            bool isCall = false;
1954            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1955            if (cblock.nexts[entry.nextIndex].isCall)
1956            {
1957                std::cout << " call: " << entry.blockIndex << std::endl;
1958                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
1959                routineMap.insert({ nextBlock, { } });
1960                isCall = true;
1961            }
1962           
1963            flowStack.push_back({ nextBlock, 0, isCall });
1964            if (flowStackBlocks[nextBlock])
1965            {
1966                loopBlocks.insert(nextBlock);
1967                flowStackBlocks[nextBlock] = false; // keep to inserted in popping
1968            }
1969            else
1970                flowStackBlocks[nextBlock] = true;
1971            entry.nextIndex++;
1972        }
1973        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1974                // if have any call then go to next block
1975                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1976                 !cblock.haveReturn && !cblock.haveEnd)
1977        {
1978            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1979            {
1980                for (const NextBlock& next: cblock.nexts)
1981                    if (next.isCall)
1982                    {
1983                        //std::cout << "joincall:"<< next.block << std::endl;
1984                        auto it = routineMap.find(next.block); // must find
1985                        initializePrevRetSSAIds(cblock, curSSAIdMap, retSSAIdMap,
1986                                    it->second, entry);
1987                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1988                    }
1989            }
1990            flowStack.push_back({ entry.blockIndex+1, 0, false });
1991            if (flowStackBlocks[entry.blockIndex+1])
1992            {
1993                loopBlocks.insert(entry.blockIndex+1);
1994                 // keep to inserted in popping
1995                flowStackBlocks[entry.blockIndex+1] = false;
1996            }
1997            else
1998                flowStackBlocks[entry.blockIndex+1] = true;
1999            entry.nextIndex++;
2000        }
2001        else // back
2002        {
2003            RoutineData* rdata = nullptr;
2004            if (!callStack.empty())
2005                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
2006           
2007            /*if (cblock.haveReturn && rdata != nullptr)
2008            {
2009                std::cout << "procret: " << entry.blockIndex << std::endl;
2010                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
2011                std::cout << "procretend" << std::endl;
2012            }*/
2013           
2014            // revert retSSAIdMap
2015            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
2016            //
2017           
2018            for (const auto& ssaEntry: cblock.ssaInfoMap)
2019            {
2020                if (ssaEntry.first.regVar == nullptr)
2021                    continue;
2022               
2023                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
2024                const size_t nextSSAId = curSSAId;
2025                curSSAId = ssaEntry.second.ssaIdBefore+1;
2026               
2027                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
2028                            ":" << ssaEntry.first.index << ": " <<
2029                            nextSSAId << ", " << curSSAId << std::endl;
2030               
2031                /*if (rdata!=nullptr)
2032                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
2033                */
2034            }
2035           
2036            std::cout << "pop: " << entry.blockIndex << std::endl;
2037            flowStackBlocks[entry.blockIndex] = false;
2038            flowStack.pop_back();
2039            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
2040                    lastCommonCacheWayPoint.second >= flowStack.size())
2041            {
2042                lastCommonCacheWayPoint =
2043                        { flowStack.back().blockIndex, flowStack.size()-1 };
2044                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
2045            }
2046           
2047        }
2048    }
2049   
2050    /**********
2051     * after that, we find points to resolve conflicts
2052     **********/
2053    flowStack.clear();
2054    std::deque<FlowStackEntry2> flowStack2;
2055   
2056    std::fill(visited.begin(), visited.end(), false);
2057    flowStack2.push_back({ 0, 0 });
2058   
2059    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
2060    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
2061   
2062    while (!flowStack2.empty())
2063    {
2064        FlowStackEntry2& entry = flowStack2.back();
2065        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2066       
2067        if (entry.nextIndex == 0)
2068        {
2069            // process current block
2070            if (!visited[entry.blockIndex])
2071                visited[entry.blockIndex] = true;
2072            else
2073            {
2074                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
2075                            prevWaysIndexMap, waysToCache, cblocksToCache,
2076                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
2077               
2078                // back, already visited
2079                flowStack2.pop_back();
2080                continue;
2081            }
2082        }
2083       
2084        if (entry.nextIndex < cblock.nexts.size())
2085        {
2086            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2087            entry.nextIndex++;
2088        }
2089        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
2090                // if have any call then go to next block
2091                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
2092                 !cblock.haveReturn && !cblock.haveEnd)
2093        {
2094            flowStack2.push_back({ entry.blockIndex+1, 0 });
2095            entry.nextIndex++;
2096        }
2097        else // back
2098        {
2099            if (cblocksToCache.count(entry.blockIndex)==2 &&
2100                !resSecondPointsCache.hasKey(entry.blockIndex))
2101                // add to cache
2102                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
2103                            entry.blockIndex);
2104            flowStack2.pop_back();
2105        }
2106    }
2107}
2108
2109void AsmRegAllocator::applySSAReplaces()
2110{
2111    /* prepare SSA id replaces */
2112    struct MinSSAGraphNode
2113    {
2114        size_t minSSAId;
2115        bool visited;
2116        std::unordered_set<size_t> nexts;
2117        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
2118    };
2119    struct MinSSAGraphStackEntry
2120    {
2121        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
2122        std::unordered_set<size_t>::const_iterator nextIt;
2123        size_t minSSAId;
2124    };
2125   
2126    for (auto& entry: ssaReplacesMap)
2127    {
2128        VectorSet<SSAReplace>& replaces = entry.second;
2129        std::sort(replaces.begin(), replaces.end());
2130        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
2131        VectorSet<SSAReplace> newReplaces;
2132       
2133        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
2134       
2135        auto it = replaces.begin();
2136        while (it != replaces.end())
2137        {
2138            auto itEnd = std::upper_bound(it, replaces.end(),
2139                            std::make_pair(it->first, size_t(SIZE_MAX)));
2140            {
2141                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2142                node.minSSAId = std::min(node.minSSAId, it->second);
2143                for (auto it2 = it; it2 != itEnd; ++it2)
2144                    node.nexts.insert(it->second);
2145            }
2146            it = itEnd;
2147        }
2148        // propagate min value
2149        std::stack<MinSSAGraphStackEntry> minSSAStack;
2150        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2151                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2152        {
2153            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2154            // traverse with minimalize SSA id
2155            while (!minSSAStack.empty())
2156            {
2157                MinSSAGraphStackEntry& entry = minSSAStack.top();
2158                MinSSAGraphNode& node = entry.nodeIt->second;
2159                bool toPop = false;
2160                if (entry.nextIt == node.nexts.begin())
2161                {
2162                    if (!node.visited)
2163                        node.visited = true;
2164                    else
2165                        toPop = true;
2166                }
2167                if (!toPop && entry.nextIt != node.nexts.end())
2168                {
2169                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2170                    if (nodeIt != ssaGraphNodes.end())
2171                    {
2172                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2173                                nodeIt->second.minSSAId });
2174                    }
2175                    ++entry.nextIt;
2176                }
2177                else
2178                {
2179                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2180                    minSSAStack.pop();
2181                    if (!minSSAStack.empty())
2182                    {
2183                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2184                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2185                    }
2186                }
2187            }
2188            // skip visited nodes
2189            while (ssaGraphNodeIt != ssaGraphNodes.end())
2190                if (!ssaGraphNodeIt->second.visited)
2191                    break;
2192        }
2193       
2194        for (const auto& entry: ssaGraphNodes)
2195            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2196       
2197        std::sort(newReplaces.begin(), newReplaces.end());
2198        entry.second = newReplaces;
2199    }
2200   
2201    /* apply SSA id replaces */
2202    for (CodeBlock& cblock: codeBlocks)
2203        for (auto& ssaEntry: cblock.ssaInfoMap)
2204        {
2205            auto it = ssaReplacesMap.find(ssaEntry.first);
2206            if (it == ssaReplacesMap.end())
2207                continue;
2208            SSAInfo& sinfo = ssaEntry.second;
2209            VectorSet<SSAReplace>& replaces = it->second;
2210            if (sinfo.readBeforeWrite)
2211            {
2212                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2213                                 ssaEntry.second.ssaIdBefore);
2214                if (rit != replaces.end())
2215                    sinfo.ssaIdBefore = rit->second; // replace
2216            }
2217            if (sinfo.ssaIdFirst != SIZE_MAX)
2218            {
2219                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2220                                 ssaEntry.second.ssaIdFirst);
2221                if (rit != replaces.end())
2222                    sinfo.ssaIdFirst = rit->second; // replace
2223            }
2224            if (sinfo.ssaIdLast != SIZE_MAX)
2225            {
2226                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2227                                 ssaEntry.second.ssaIdLast);
2228                if (rit != replaces.end())
2229                    sinfo.ssaIdLast = rit->second; // replace
2230            }
2231        }
2232}
2233
2234struct Liveness
2235{
2236    std::map<size_t, size_t> l;
2237   
2238    Liveness() { }
2239   
2240    void clear()
2241    { l.clear(); }
2242   
2243    void expand(size_t k)
2244    {
2245        if (l.empty())
2246            l.insert(std::make_pair(k, k+1));
2247        else
2248        {
2249            auto it = l.end();
2250            --it;
2251            it->second = k+1;
2252        }
2253    }
2254    void newRegion(size_t k)
2255    {
2256        if (l.empty())
2257            l.insert(std::make_pair(k, k));
2258        else
2259        {
2260            auto it = l.end();
2261            --it;
2262            if (it->first != k && it->second != k)
2263                l.insert(std::make_pair(k, k));
2264        }
2265    }
2266   
2267    void insert(size_t k, size_t k2)
2268    {
2269        auto it1 = l.lower_bound(k);
2270        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2271            --it1;
2272        if (it1->second < k)
2273            ++it1;
2274        auto it2 = l.lower_bound(k2);
2275        if (it1!=it2)
2276        {
2277            k = std::min(k, it1->first);
2278            k2 = std::max(k2, (--it2)->second);
2279            l.erase(it1, it2);
2280        }
2281        l.insert(std::make_pair(k, k2));
2282    }
2283   
2284    bool contain(size_t t) const
2285    {
2286        auto it = l.lower_bound(t);
2287        if (it==l.begin() && it->first>t)
2288            return false;
2289        if (it==l.end() || it->first>t)
2290            --it;
2291        return it->first<=t && t<it->second;
2292    }
2293   
2294    bool common(const Liveness& b) const
2295    {
2296        auto i = l.begin();
2297        auto j = b.l.begin();
2298        for (; i != l.end() && j != b.l.end();)
2299        {
2300            if (i->first==i->second)
2301            {
2302                ++i;
2303                continue;
2304            }
2305            if (j->first==j->second)
2306            {
2307                ++j;
2308                continue;
2309            }
2310            if (i->first<j->first)
2311            {
2312                if (i->second > j->first)
2313                    return true; // common place
2314                ++i;
2315            }
2316            else
2317            {
2318                if (i->first < j->second)
2319                    return true; // common place
2320                ++j;
2321            }
2322        }
2323        return false;
2324    }
2325};
2326
2327typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2328
2329static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2330            const AsmSingleVReg& svreg)
2331{
2332    cxuint regType; // regtype
2333    if (svreg.regVar!=nullptr)
2334        regType = svreg.regVar->type;
2335    else
2336        for (regType = 0; regType < regTypesNum; regType++)
2337            if (svreg.index >= regRanges[regType<<1] &&
2338                svreg.index < regRanges[(regType<<1)+1])
2339                break;
2340    return regType;
2341}
2342
2343static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2344        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2345        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2346{
2347    size_t ssaId;
2348    if (svreg.regVar==nullptr)
2349        ssaId = 0;
2350    else if (ssaIdIdx==0)
2351        ssaId = ssaInfo.ssaIdBefore;
2352    else if (ssaIdIdx==1)
2353        ssaId = ssaInfo.ssaIdFirst;
2354    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2355        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2356    else // last
2357        ssaId = ssaInfo.ssaIdLast;
2358   
2359    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2360    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2361    const std::vector<size_t>& ssaIdIndices =
2362                vregIndexMap.find(svreg)->second;
2363    return livenesses[regType][ssaIdIndices[ssaId]];
2364}
2365
2366typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2367
2368struct CLRX_INTERNAL VRegLastPos
2369{
2370    size_t ssaId; // last SSA id
2371    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2372};
2373
2374/* TODO: add handling calls
2375 * handle many start points in this code (for example many kernel's in same code)
2376 * replace sets by vector, and sort and remove same values on demand
2377 */
2378
2379typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2380
2381static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2382        const std::vector<CodeBlock>& codeBlocks,
2383        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2384        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2385        size_t regTypesNum, const cxuint* regRanges)
2386{
2387    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2388    for (const auto& entry: cblock.ssaInfoMap)
2389        if (entry.second.readBeforeWrite)
2390        {
2391            // find last
2392            auto lvrit = lastVRegMap.find(entry.first);
2393            if (lvrit == lastVRegMap.end())
2394                continue; // not found
2395            const VRegLastPos& lastPos = lvrit->second;
2396            FlowStackCIter flit = lastPos.blockChain.back();
2397            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2398            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2399            const std::vector<size_t>& ssaIdIndices =
2400                        vregIndexMap.find(entry.first)->second;
2401            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2402            FlowStackCIter flitEnd = flowStack.end();
2403            --flitEnd; // before last element
2404            // insert live time to last seen position
2405            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2406            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2407            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2408                    toLiveCvt + lastBlk.end);
2409            for (++flit; flit != flitEnd; ++flit)
2410            {
2411                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2412                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2413                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2414            }
2415        }
2416}
2417
2418static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2419        const std::vector<CodeBlock>& codeBlocks,
2420        const Array<size_t>& codeBlockLiveTimes,
2421        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2422        size_t regTypesNum, const cxuint* regRanges)
2423{
2424    auto flitStart = flowStack.end();
2425    --flitStart;
2426    size_t curBlock = flitStart->blockIndex;
2427    // find step in way
2428    while (flitStart->blockIndex != curBlock) --flitStart;
2429    auto flitEnd = flowStack.end();
2430    --flitEnd;
2431    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2432   
2433    // collect var to check
2434    size_t flowPos = 0;
2435    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2436    {
2437        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2438        for (const auto& entry: cblock.ssaInfoMap)
2439        {
2440            const SSAInfo& sinfo = entry.second;
2441            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2442                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2443            varMap[entry.first] = { lastSSAId, flowPos };
2444        }
2445    }
2446    // find connections
2447    flowPos = 0;
2448    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2449    {
2450        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2451        for (const auto& entry: cblock.ssaInfoMap)
2452        {
2453            const SSAInfo& sinfo = entry.second;
2454            auto varMapIt = varMap.find(entry.first);
2455            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2456                flowPos > varMapIt->second.second ||
2457                sinfo.ssaIdBefore != varMapIt->second.first)
2458                continue;
2459            // just connect
2460           
2461            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2462            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2463            const std::vector<size_t>& ssaIdIndices =
2464                        vregIndexMap.find(entry.first)->second;
2465            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2466           
2467            if (flowPos == varMapIt->second.second)
2468            {
2469                // fill whole loop
2470                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2471                {
2472                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2473                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2474                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2475                }
2476                continue;
2477            }
2478           
2479            size_t flowPos2 = 0;
2480            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2481            {
2482                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2483                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2484                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2485            }
2486            // insert liveness for last block in loop of last SSAId (prev round)
2487            auto flit2 = flitStart + flowPos;
2488            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2489            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2490            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2491                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2492            // insert liveness for first block in loop of last SSAId
2493            flit2 = flitStart + (varMapIt->second.second+1);
2494            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2495            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2496            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2497                    toLiveCvt + lastBlk.end);
2498            // fill up loop end
2499            for (++flit2; flit2 != flitEnd; ++flit2)
2500            {
2501                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2502                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2503                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2504            }
2505        }
2506    }
2507}
2508
2509struct LiveBlock
2510{
2511    size_t start;
2512    size_t end;
2513    size_t vidx;
2514   
2515    bool operator==(const LiveBlock& b) const
2516    { return start==b.start && end==b.end && vidx==b.vidx; }
2517   
2518    bool operator<(const LiveBlock& b) const
2519    { return start<b.start || (start==b.start &&
2520            (end<b.end || (end==b.end && vidx<b.vidx))); }
2521};
2522
2523typedef AsmRegAllocator::LinearDep LinearDep;
2524typedef AsmRegAllocator::EqualToDep EqualToDep;
2525typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2526typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2527
2528static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2529            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2530            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2531            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2532            size_t regTypesNum, const cxuint* regRanges)
2533{
2534    // add linear deps
2535    cxuint count = ldeps[0];
2536    cxuint pos = 1;
2537    cxbyte rvuAdded = 0;
2538    for (cxuint i = 0; i < count; i++)
2539    {
2540        cxuint ccount = ldeps[pos++];
2541        std::vector<size_t> vidxes;
2542        cxuint regType = UINT_MAX;
2543        cxbyte align = rvus[ldeps[pos]].align;
2544        for (cxuint j = 0; j < ccount; j++)
2545        {
2546            rvuAdded |= 1U<<ldeps[pos];
2547            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2548            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2549            {
2550                AsmSingleVReg svreg = {rvu.regVar, k};
2551                auto sit = ssaIdIdxMap.find(svreg);
2552                if (regType==UINT_MAX)
2553                    regType = getRegType(regTypesNum, regRanges, svreg);
2554                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2555                const std::vector<size_t>& ssaIdIndices =
2556                            vregIndexMap.find(svreg)->second;
2557                // push variable index
2558                vidxes.push_back(ssaIdIndices[sit->second]);
2559            }
2560        }
2561        ldepsOut[regType][vidxes[0]].align = align;
2562        for (size_t k = 1; k < vidxes.size(); k++)
2563        {
2564            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2565            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2566        }
2567    }
2568    // add single arg linear dependencies
2569    for (cxuint i = 0; i < rvusNum; i++)
2570        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2571        {
2572            const AsmRegVarUsage& rvu = rvus[i];
2573            std::vector<size_t> vidxes;
2574            cxuint regType = UINT_MAX;
2575            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2576            {
2577                AsmSingleVReg svreg = {rvu.regVar, k};
2578                auto sit = ssaIdIdxMap.find(svreg);
2579                if (regType==UINT_MAX)
2580                    regType = getRegType(regTypesNum, regRanges, svreg);
2581                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2582                const std::vector<size_t>& ssaIdIndices =
2583                            vregIndexMap.find(svreg)->second;
2584                // push variable index
2585                vidxes.push_back(ssaIdIndices[sit->second]);
2586            }
2587            for (size_t j = 1; j < vidxes.size(); j++)
2588            {
2589                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2590                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2591            }
2592        }
2593       
2594    /* equalTo dependencies */
2595    count = edeps[0];
2596    pos = 1;
2597    for (cxuint i = 0; i < count; i++)
2598    {
2599        cxuint ccount = edeps[pos++];
2600        std::vector<size_t> vidxes;
2601        cxuint regType = UINT_MAX;
2602        for (cxuint j = 0; j < ccount; j++)
2603        {
2604            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2605            // only one register should be set for equalTo depencencies
2606            // other registers in range will be resolved by linear dependencies
2607            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2608            auto sit = ssaIdIdxMap.find(svreg);
2609            if (regType==UINT_MAX)
2610                regType = getRegType(regTypesNum, regRanges, svreg);
2611            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2612            const std::vector<size_t>& ssaIdIndices =
2613                        vregIndexMap.find(svreg)->second;
2614            // push variable index
2615            vidxes.push_back(ssaIdIndices[sit->second]);
2616        }
2617        for (size_t j = 1; j < vidxes.size(); j++)
2618        {
2619            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2620            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2621        }
2622    }
2623}
2624
2625typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2626
2627struct EqualStackEntry
2628{
2629    EqualToDepMapCIter etoDepIt;
2630    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2631};
2632
2633void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2634{
2635    // construct var index maps
2636    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2637    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2638    cxuint regRanges[MAX_REGTYPES_NUM*2];
2639    size_t regTypesNum;
2640    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2641   
2642    for (const CodeBlock& cblock: codeBlocks)
2643        for (const auto& entry: cblock.ssaInfoMap)
2644        {
2645            const SSAInfo& sinfo = entry.second;
2646            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2647            VarIndexMap& vregIndices = vregIndexMaps[regType];
2648            size_t& graphVregsCount = graphVregsCounts[regType];
2649            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2650            size_t ssaIdCount = 0;
2651            if (sinfo.readBeforeWrite)
2652                ssaIdCount = sinfo.ssaIdBefore+1;
2653            if (sinfo.ssaIdChange!=0)
2654            {
2655                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2656                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2657            }
2658            if (ssaIdIndices.size() < ssaIdCount)
2659                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2660           
2661            if (sinfo.readBeforeWrite)
2662                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2663            if (sinfo.ssaIdChange!=0)
2664            {
2665                // fill up ssaIdIndices (with graph Ids)
2666                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2667                for (size_t ssaId = sinfo.ssaId+1;
2668                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2669                    ssaIdIndices[ssaId] = graphVregsCount++;
2670                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2671            }
2672        }
2673   
2674    // construct vreg liveness
2675    std::deque<FlowStackEntry> flowStack;
2676    std::vector<bool> visited(codeBlocks.size(), false);
2677    // hold last vreg ssaId and position
2678    LastVRegMap lastVRegMap;
2679    // hold start live time position for every code block
2680    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2681    std::unordered_set<size_t> blockInWay;
2682   
2683    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2684   
2685    for (size_t i = 0; i < regTypesNum; i++)
2686        livenesses[i].resize(graphVregsCounts[i]);
2687   
2688    size_t curLiveTime = 0;
2689   
2690    while (!flowStack.empty())
2691    {
2692        FlowStackEntry& entry = flowStack.back();
2693        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2694       
2695        if (entry.nextIndex == 0)
2696        {
2697            // process current block
2698            if (!blockInWay.insert(entry.blockIndex).second)
2699            {
2700                // if loop
2701                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2702                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2703                flowStack.pop_back();
2704                continue;
2705            }
2706           
2707            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2708            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2709                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2710           
2711            for (const auto& sentry: cblock.ssaInfoMap)
2712            {
2713                const SSAInfo& sinfo = sentry.second;
2714                // update
2715                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2716                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2717                FlowStackCIter flit = flowStack.end();
2718                --flit; // to last position
2719                auto res = lastVRegMap.insert({ sentry.first, 
2720                            { lastSSAId, { flit } } });
2721                if (!res.second) // if not first seen, just update
2722                {
2723                    // update last
2724                    res.first->second.ssaId = lastSSAId;
2725                    res.first->second.blockChain.push_back(flit);
2726                }
2727            }
2728           
2729            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2730            if (!visited[entry.blockIndex])
2731            {
2732                visited[entry.blockIndex] = true;
2733                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2734                AsmRegVarUsage instrRVUs[8];
2735                cxuint instrRVUsCount = 0;
2736               
2737                size_t oldOffset = cblock.usagePos.readOffset;
2738                std::vector<AsmSingleVReg> readSVRegs;
2739                std::vector<AsmSingleVReg> writtenSVRegs;
2740               
2741                usageHandler.setReadPos(cblock.usagePos);
2742                // register in liveness
2743                while (true)
2744                {
2745                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2746                    size_t liveTimeNext = curBlockLiveEnd;
2747                    if (usageHandler.hasNext())
2748                    {
2749                        rvu = usageHandler.nextUsage();
2750                        if (rvu.offset >= cblock.end)
2751                            break;
2752                        if (!rvu.useRegMode)
2753                            instrRVUs[instrRVUsCount++] = rvu;
2754                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2755                                cblock.start + curLiveTime;
2756                    }
2757                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2758                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2759                    {
2760                        // apply to liveness
2761                        for (AsmSingleVReg svreg: readSVRegs)
2762                        {
2763                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2764                                    cblock.ssaInfoMap.find(svreg)->second,
2765                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2766                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2767                                lv.newRegion(curLiveTime); // begin region from this block
2768                            lv.expand(liveTime);
2769                        }
2770                        for (AsmSingleVReg svreg: writtenSVRegs)
2771                        {
2772                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2773                            ssaIdIdx++;
2774                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2775                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2776                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2777                            if (liveTimeNext != curBlockLiveEnd)
2778                                // because live after this instr
2779                                lv.newRegion(liveTimeNext);
2780                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2781                        }
2782                        // get linear deps and equal to
2783                        cxbyte lDeps[16];
2784                        cxbyte eDeps[16];
2785                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2786                                        lDeps, eDeps);
2787                       
2788                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2789                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2790                                regTypesNum, regRanges);
2791                       
2792                        readSVRegs.clear();
2793                        writtenSVRegs.clear();
2794                        if (!usageHandler.hasNext())
2795                            break; // end
2796                        oldOffset = rvu.offset;
2797                        instrRVUsCount = 0;
2798                    }
2799                    if (rvu.offset >= cblock.end)
2800                        break;
2801                   
2802                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2803                    {
2804                        // per register/singlvreg
2805                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2806                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2807                            writtenSVRegs.push_back(svreg);
2808                        else // read or treat as reading // expand previous region
2809                            readSVRegs.push_back(svreg);
2810                    }
2811                }
2812                curLiveTime += cblock.end-cblock.start;
2813            }
2814            else
2815            {
2816                // back, already visited
2817                flowStack.pop_back();
2818                continue;
2819            }
2820        }
2821        if (entry.nextIndex < cblock.nexts.size())
2822        {
2823            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2824            entry.nextIndex++;
2825        }
2826        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2827        {
2828            flowStack.push_back({ entry.blockIndex+1, 0 });
2829            entry.nextIndex++;
2830        }
2831        else // back
2832        {
2833            // revert lastSSAIdMap
2834            blockInWay.erase(entry.blockIndex);
2835            flowStack.pop_back();
2836            if (!flowStack.empty())
2837            {
2838                for (const auto& sentry: cblock.ssaInfoMap)
2839                {
2840                    auto lvrit = lastVRegMap.find(sentry.first);
2841                    if (lvrit != lastVRegMap.end())
2842                    {
2843                        VRegLastPos& lastPos = lvrit->second;
2844                        lastPos.ssaId = sentry.second.ssaIdBefore;
2845                        lastPos.blockChain.pop_back();
2846                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2847                            lastVRegMap.erase(lvrit);
2848                    }
2849                }
2850            }
2851        }
2852    }
2853   
2854    /// construct liveBlockMaps
2855    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2856    for (size_t regType = 0; regType < regTypesNum; regType++)
2857    {
2858        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2859        std::vector<Liveness>& liveness = livenesses[regType];
2860        for (size_t li = 0; li < liveness.size(); li++)
2861        {
2862            Liveness& lv = liveness[li];
2863            for (const std::pair<size_t, size_t>& blk: lv.l)
2864                if (blk.first != blk.second)
2865                    liveBlockMap.insert({ blk.first, blk.second, li });
2866            lv.clear();
2867        }
2868        liveness.clear();
2869    }
2870   
2871    // create interference graphs
2872    for (size_t regType = 0; regType < regTypesNum; regType++)
2873    {
2874        InterGraph& interGraph = interGraphs[regType];
2875        interGraph.resize(graphVregsCounts[regType]);
2876        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2877       
2878        auto lit = liveBlockMap.begin();
2879        size_t rangeStart = 0;
2880        if (lit != liveBlockMap.end())
2881            rangeStart = lit->start;
2882        while (lit != liveBlockMap.end())
2883        {
2884            const size_t blkStart = lit->start;
2885            const size_t blkEnd = lit->end;
2886            size_t rangeEnd = blkEnd;
2887            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2888            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2889            // collect from this range, variable indices
2890            std::set<size_t> varIndices;
2891            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2892                varIndices.insert(lit2->vidx);
2893            // push to intergraph as full subgGraph
2894            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2895                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2896                    if (vit != vit2)
2897                        interGraph[*vit].insert(*vit2);
2898            // go to next live blocks
2899            rangeStart = rangeEnd;
2900            for (; lit != liveBlockMap.end(); ++lit)
2901                if (lit->start != blkStart && lit->end != blkEnd)
2902                    break;
2903            if (lit == liveBlockMap.end())
2904                break; //
2905            rangeStart = std::max(rangeStart, lit->start);
2906        }
2907    }
2908   
2909    /*
2910     * resolve equalSets
2911     */
2912    for (cxuint regType = 0; regType < regTypesNum; regType++)
2913    {
2914        InterGraph& interGraph = interGraphs[regType];
2915        const size_t nodesNum = interGraph.size();
2916        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2917        std::vector<bool> visited(nodesNum, false);
2918        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2919       
2920        for (size_t v = 0; v < nodesNum;)
2921        {
2922            auto it = etoDepMap.find(v);
2923            if (it == etoDepMap.end())
2924            {
2925                // is not regvar in equalTo dependencies
2926                v++;
2927                continue;
2928            }
2929           
2930            std::stack<EqualStackEntry> etoStack;
2931            etoStack.push(EqualStackEntry{ it, 0 });
2932           
2933            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2934            const size_t equalSetIndex = equalSetList.size();
2935            equalSetList.push_back(std::vector<size_t>());
2936            std::vector<size_t>& equalSet = equalSetList.back();
2937           
2938            // traverse by this
2939            while (!etoStack.empty())
2940            {
2941                EqualStackEntry& entry = etoStack.top();
2942                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2943                const EqualToDep& eToDep = entry.etoDepIt->second;
2944                if (entry.nextIdx == 0)
2945                {
2946                    if (!visited[vidx])
2947                    {
2948                        // push to this equalSet
2949                        equalSetMap.insert({ vidx, equalSetIndex });
2950                        equalSet.push_back(vidx);
2951                    }
2952                    else
2953                    {
2954                        // already visited
2955                        etoStack.pop();
2956                        continue;
2957                    }
2958                }
2959               
2960                if (entry.nextIdx < eToDep.nextVidxes.size())
2961                {
2962                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2963                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2964                    entry.nextIdx++;
2965                }
2966                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2967                {
2968                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2969                                entry.nextIdx - eToDep.nextVidxes.size()]);
2970                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2971                    entry.nextIdx++;
2972                }
2973                else
2974                    etoStack.pop();
2975            }
2976           
2977            // to first already added node (var)
2978            while (v < nodesNum && !visited[v]) v++;
2979        }
2980    }
2981}
2982
2983typedef AsmRegAllocator::InterGraph InterGraph;
2984
2985struct CLRX_INTERNAL SDOLDOCompare
2986{
2987    const InterGraph& interGraph;
2988    const Array<size_t>& sdoCounts;
2989   
2990    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2991        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2992    { }
2993   
2994    bool operator()(size_t a, size_t b) const
2995    {
2996        if (sdoCounts[a] > sdoCounts[b])
2997            return true;
2998        return interGraph[a].size() > interGraph[b].size();
2999    }
3000};
3001
3002/* algorithm to allocate regranges:
3003 * from smallest regranges to greatest regranges:
3004 *   choosing free register: from smallest free regranges
3005 *      to greatest regranges:
3006 *         in this same regrange:
3007 *               try to find free regs in regranges
3008 *               try to link free ends of two distinct regranges
3009 */
3010
3011void AsmRegAllocator::colorInterferenceGraph()
3012{
3013    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
3014                    assembler.deviceType);
3015   
3016    for (size_t regType = 0; regType < regTypesNum; regType++)
3017    {
3018        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
3019        InterGraph& interGraph = interGraphs[regType];
3020        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
3021        Array<cxuint>& gcMap = graphColorMaps[regType];
3022        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
3023        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
3024       
3025        const size_t nodesNum = interGraph.size();
3026        gcMap.resize(nodesNum);
3027        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
3028        Array<size_t> sdoCounts(nodesNum);
3029        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
3030       
3031        SDOLDOCompare compare(interGraph, sdoCounts);
3032        std::set<size_t, SDOLDOCompare> nodeSet(compare);
3033        for (size_t i = 0; i < nodesNum; i++)
3034            nodeSet.insert(i);
3035       
3036        cxuint colorsNum = 0;
3037        // firstly, allocate real registers
3038        for (const auto& entry: vregIndexMap)
3039            if (entry.first.regVar == nullptr)
3040                gcMap[entry.second[0]] = colorsNum++;
3041       
3042        for (size_t colored = 0; colored < nodesNum; colored++)
3043        {
3044            size_t node = *nodeSet.begin();
3045            if (gcMap[node] != UINT_MAX)
3046                continue; // already colored
3047            size_t color = 0;
3048            std::vector<size_t> equalNodes;
3049            equalNodes.push_back(node); // only one node, if equalSet not found
3050            auto equalSetMapIt = equalSetMap.find(node);
3051            if (equalSetMapIt != equalSetMap.end())
3052                // found, get equal set from equalSetList
3053                equalNodes = equalSetList[equalSetMapIt->second];
3054           
3055            for (color = 0; color <= colorsNum; color++)
3056            {
3057                // find first usable color
3058                bool thisSame = false;
3059                for (size_t nb: interGraph[node])
3060                    if (gcMap[nb] == color)
3061                    {
3062                        thisSame = true;
3063                        break;
3064                    }
3065                if (!thisSame)
3066                    break;
3067            }
3068            if (color==colorsNum) // add new color if needed
3069            {
3070                if (colorsNum >= maxColorsNum)
3071                    throw AsmException("Too many register is needed");
3072                colorsNum++;
3073            }
3074           
3075            for (size_t nextNode: equalNodes)
3076                gcMap[nextNode] = color;
3077            // update SDO for node
3078            bool colorExists = false;
3079            for (size_t node: equalNodes)
3080            {
3081                for (size_t nb: interGraph[node])
3082                    if (gcMap[nb] == color)
3083                    {
3084                        colorExists = true;
3085                        break;
3086                    }
3087                if (!colorExists)
3088                    sdoCounts[node]++;
3089            }
3090            // update SDO for neighbors
3091            for (size_t node: equalNodes)
3092                for (size_t nb: interGraph[node])
3093                {
3094                    colorExists = false;
3095                    for (size_t nb2: interGraph[nb])
3096                        if (gcMap[nb2] == color)
3097                        {
3098                            colorExists = true;
3099                            break;
3100                        }
3101                    if (!colorExists)
3102                    {
3103                        if (gcMap[nb] == UINT_MAX)
3104                            nodeSet.erase(nb);  // before update we erase from nodeSet
3105                        sdoCounts[nb]++;
3106                        if (gcMap[nb] == UINT_MAX)
3107                            nodeSet.insert(nb); // after update, insert again
3108                    }
3109                }
3110           
3111            for (size_t nextNode: equalNodes)
3112                gcMap[nextNode] = color;
3113        }
3114    }
3115}
3116
3117void AsmRegAllocator::allocateRegisters(cxuint sectionId)
3118{
3119    // before any operation, clear all
3120    codeBlocks.clear();
3121    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
3122    {
3123        vregIndexMaps[i].clear();
3124        interGraphs[i].clear();
3125        linearDepMaps[i].clear();
3126        equalToDepMaps[i].clear();
3127        graphColorMaps[i].clear();
3128        equalSetMaps[i].clear();
3129        equalSetLists[i].clear();
3130    }
3131    ssaReplacesMap.clear();
3132    cxuint maxRegs[MAX_REGTYPES_NUM];
3133    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
3134   
3135    // set up
3136    const AsmSection& section = assembler.sections[sectionId];
3137    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
3138    createSSAData(*section.usageHandler);
3139    applySSAReplaces();
3140    createInterferenceGraph(*section.usageHandler);
3141    colorInterferenceGraph();
3142}
Note: See TracBrowser for help on using the repository browser.